はじめに
はじめまして、DNP の神山です。今回初めての投稿になります。
普段、業務ではエスノグラフィーを主としたユーザーリサーチやUXリサーチを担当し、開発プロジェクトの価値創出のフェーズに主に活動しています。
一方で、バックグラウンドとしては開発やDIY、モノづくりといった手を動かしてモノを作ったりすることが好きで、いまでも時間があれば手を動かしてモノづくりをしています。
そこで、Qiita ではリサーチというよりはモノづくにやそれを作ろうと思ったきっかけを中心とした内容を投稿していこうと思っています。内容についてはその時の私の興味や関心、感性や感情など刻一刻と変わるその時の状況に応じて生み出されたモノや考え方についてつらつらと書き連ねていく予定です。
※幸運なことに私の職場ではモノづくりをさせていただける風土と環境がありました
その点において、非常に読みづらい部分が多分にあるかもしませんが、巷ではやっているバイブコーディングのようにバイブリーディングしていただけたらと思います。
今回の記事について
さて今回の記事では「生成 AI を活用したオルゴール」についてのご紹介です。私が考えた名称はあるにはあるのですが、都合ににより一般名称としています。もともと当社では生成 AI を活用したデモの開発・展示をする場があり、そのときタンジブルデバイスを開発したいという思いから私が過去に作成したものです。オリジナルはいつ作ったか忘れてしまいましたが、今回はそれを外部の展示用に作り直したものをベースに作っており、その内容に関する記事となっています。
作ったのは以下のようなものです。(GIF 小さくてごめんなさい)
こちらは大阪にあるグランフロント大阪「The Lab.」のアクティブラボで、当社がブース出展している中の展示物の一つとして過去に展示していました。体験者は4つのジャンルの物語を作成するプロンプトが事前定義された4つのボタンのうち1つを押し、その後側面にあるハンドルを回すことでハンドルの回転速度に合わせて物語の朗読とそれに関連したイメージがレシートで出力されるように設計されています。
グランフロント大阪「The Lab.」のアクティブラボでDNPブースを4月22日にオープン
ただし、展示の都合上、体験者はボタンを押すことで自動的にハンドルが回り、物語の朗読とイメージ(3コマから4コマ)がレシートで出力されるようになっています。
なぜこれを作ろうと思ったのか
そもそもなぜこれを作ろうと思ったかというのが今回の記事のメインになるのですが、”生成AI”や”ChatGPT”というワードが流行りだす一方でその活用方法が模索されている当時(2023年秋ごろだったかな)、当社としても様々なデモを作成して発信を続けていました。社内の多くのメンバーがデモ開発をしている中、私もどのようなものを作るべきか、いろいろと思考を張り巡らせていました。
何を作るべきかを考える場合、顧客やユーザーに価値あるものを作るということにが当たり前のように考えられます。それはつまり「顧客やユーザーの本質的な課題を発見し、そのソリューション」を考えることになります。そのうえで、そのソリューションと生成AIの重なる部分を見つけ、デモを開発することが生成 AI のデモを開発する効果的なプロセスだと思います。
一方で私としては、そのような王道的なプロセスを考えつつも、生成 AI の活用が模索されているいまだからこそ多くの視点を取り入れたいと考え、あえてソリューションではなく新しい価値観や考え方を提示するコンセプチュアルなデモを作りたいと考えていました。そして、それはウェブアプリのようなソフトウェアではなく、タンジブルなプロダクトであればあるほどよいと、強く考えていました。
ではタンジブルなデバイスを作るということはどういうプロセスで作るのか、ということですが、私が大事だと考える一つの要素としてインタラクション性をまず最初に考えます。人間の入力があり、それに対してシステムがリアクション(出力)を行い、それに対して人間が返すようにリアクションを行う。人間とシステムのベクトルがお互いを向き合うような体験とはどんなものか、そのようなことを軸に考えます。
では人間の入力とはなにか、それはフィジカルな入力である”手や足を使って動作をする”、あるいは生体入力である”口で声をだす”、”視線を動かす”、”何かを考える、念ずる(脳波)”といったものがあります。
ここからこのような入力をする体験にはどのようなものがあるかを考えます。例えば日ごろの生活を見返してみるといろいろと入力があることに気付きます。扉をテーマに考えると、”ドアノブをひねって、扉を押す”、”手すりを押し下げて、扉を押す”、”押し板(手を当てる部分)を押して、扉を押す”といった様々な入力があります。これを様々な場面、例えば遊園地、例えば業務、例えば食事、多くのシチュエーションで考えます。すると多くの入力があることに気付きます。
次にシステムの出力とは何か、を考えます。それは基本的に人間が認知できる情報である必要があると考えており、五感を基準に考えます。つまり”視覚・聴覚・嗅覚・味覚・触覚”です。例えばスマートフォンのソフトウェアキーボードを例にとると、文字を入力するという入力をしたときシステム側では、触覚フィードバック(ぶるぶる)を返したり、音(ピコっ)を出力したり、入力した文字が表示されるたりします。
このような入力と出力を常に思考し、それこそ出勤途中や業務時間中に考えたり、あるいは俗にいう人間観察を通して人の行動からヒントを得たりするようにしています。あるいは暑い日にあえて車ではなく徒歩で移動することで外の暑さを身をもって感じ、身体の感覚のアップデートを行います。
余談ですが、夏は特にエアコンのきいた空間に過ごすことが多く、例えば気温 35 度がどのくらい暑いのか意外にわからなかったりします。あえて暑い空間に身を置き、35 度がどんなものかを経験し、暑さの感覚をアップデートするようにしています。これは雨の日でも雪の日でも、風の日でも同様です。あえて悪い環境に身を置くと、いろいろと気づきがあります。
※ただしほんとに危険な場に身を置くことは推奨しません(危ないですからね)
と、何を作ろうか考えているさなか、そのような入力と出力のことを考えながらある日社外イベントに参加していたのですが、そのイベントから帰る駅のホームでなぜか頭の中に”オルゴール”がパッと頭に浮かびました。すぐさま何かを感じ取った私は、オルゴールを入力と出力に分解して考えてみたのです。
すると、
入力:ハンドルを握る、ハンドルを回す、
出力:音がなる、ドラム(点が打ってある、くるくるまわるアレ)が回る、ツメがはじかれる
といった要素に分解できました(ほかにもあるはず!)。ここから着想を経て、「オルゴールって音が一曲しか流れないけど、生成 AI だったら・・」という思考につながり、ハンドルを回すと生成 AI が物語を即興で生み出し、再生する「生成 AI を活用したオルゴール」の構想が生まれました。
そのあとの詳細の流れは割愛しますが、そんなこんなで構想が生まれたらあとはひたすら 3D データを設計し、レーザーカッターで切り出して組み立てて、配線をして、コードを書いて、社内でテストをして、展示をするという流れに至りました。
このように日ごろから様々な入力と出力を観察し、生成 AI との関係性をプロダクトという器に落とし込み、世の中に示していくことは、ユーザーや顧客の課題に対してのソリューションにはなりづらいかもしれませんが、一つの提案として新しい気づきを多くの人にもたらせるものだと思っています。
ぜひみなさんも身の回りに生活を観察して入力と出力にどようなものがあるか、その関係性はどのようなものかということを考えてみてはいかがでしょうか。