この記事はLITALICO Advent Calendar 2025の21日目の記事です。
なぜあなたのプロンプトは、いつも「惜しい」のか
こんにちは@zacky_50 です。みなさんは生成AIを使っていて、「言いたいことはだいたい伝わっているけれど、肝心なところがズレている」「悪くはないけど、私の求めているのはこれじゃない」という、「惜しい」感覚に陥ったことはありませんか?
私自身は自認ビジュアルシンカーであり、「頭の中に明確なイメージがあるのに、それを言葉にしようとするとこぼれ落ちてしまう」そんな「言語化不足」をずっと感じていました。この言語化不足によってAIに指示がうまく通らないのだと思っていました。
しかし、AIとの対話を試行錯誤する中で気づいたのは、その「惜しさ」は、脳内にある高解像度なイメージ(暗黙知)が、現在のAIのインターフェースをはみ出してしまっているだけだということ。今回は、そんな私が試行錯誤しているビジュアルシンカーが生成AIとうまく付き合う方法について紹介します。
「AIがわかってくれない」の正体
私たちが「惜しい」と感じる時、脳内には言語化されていないこだわり(暗黙知)が存在しています。 プロンプトとして打ち込んだ文字情報は、実は本当に伝えたいイメージのほんの一部に過ぎません。残りの多くは、「なんとなくのニュアンス」「特有の質感」「絶妙なバランス」といった、言葉にする前の感覚として脳内に留まっています。AIはこの「目に見えるほんの一部」だけを頼りに回答するため、どうしても「惜しい」結果が生まれてしまいます。
「言語化能力」の不足ではない
「もっと詳しく説明できればいいのに」と思うかもしれません。しかし、その「惜しい」という感覚は脳内情報の解像度が高いからです。 AIが出してきた回答に対してどこが違うかを瞬時に判断できています。これは、頭の中に比較対象となる「高精細な正解イメージ」が厳然として存在しているからです。それをうまくアウトプットできていないだけで、頭の中には正解の情報はきちんとあるはずです。
脳内は3D、出力は1D:ビジュアル思考の宿命
私はこの状況に特に関係しているのは認知特性によるものだと考えています。
特に、私のようなビジュアルシンカーはこの状況になりやすいのではないかと考えています。
ビジュアルシンカーの脳内を私は以下のように整理しています。
-
脳内(3D): 全体のイメージが3次元的に存在している(空間視覚思考者の場合。画像視覚思考者は2Dに近いかもしれません)
-
プロンプト(1D): 情報を一つずつ順序立てて、文字情報に落とし込む
ビジュアルシンカーは、この情報量の差を無理やり「言葉」に圧縮してプロンプトを作成しています。この圧縮プロセスでこぼれ落ちた膨大なデータこそが、AIに伝わらない「こだわり」だと思っています。
AIを「答えを出すもの」だけでなく「思考を練り直す壁打ち相手」とする
では、どうすればいいのか。 ひとつは一回で100点のプロンプトを書こうとしないことです。
AIに指示を出す際に一撃で完成品を目指すのではなく、対話を通じてよりよいものを完成させる副操縦士だと捉え直すことが重要になります。
本記事では、AIとの対話を通じて、自分でも気づいていなかった「こだわり(暗黙知)」を形にしていく「プロトタイプ思考」と、その実践例をご紹介します。
戦略としての「プロトタイプ思考」
脳内にある高解像度なイメージを、一度のプロンプトで完璧に再現しようとするのは、一朝一夕には難しいと思います。ここでは、AIを「一発回答のマシン」ではなく「共に形を作るもの」として扱い段階的に認識をそろえていくことを念頭に置いてみるのが鍵となります。
一撃必殺(一発回答)の呪縛を解く:60点のプロンプトから始める勇気
多くの人が「プロンプトエンジニアリング」と聞くと、魔法のような長い命令文を書いて一回で正解を出す技術だと思いがちです。私もそうでした。しかし、私のようなビジュアルシンカーにとって、最初から100点の言葉を紡ぐのは至難の業でした。なぜなら、「何が100点なのか」は、具体的な形(AIの回答)を見るまで自分でも言語化できていないことが多いからです。
そこでまずは、「60点の粗彫り」から始めましょう。
「だいたいこんな感じ」という骨組みだけを投げ、AIに一旦形を作らせる。
この「とりあえず出してみる」が、脳内にある暗黙知を引き出すきっかけになります。
「対話の解像度」を段階的に上げる
プロトタイプ思考の本質は、AIと一緒に「共通言語」を構築していくプロセスにあります。
粗彫り(ラフ): 大まかな方向性を確認する。
面出し(ディテール): 特定の要素に絞って修正をかける。
仕上げ(ポリッシュ): 語彙やニュアンスを微調整する。
いきなり正解を目指さず、「今の回答の、ここだけはいいけど、ここは違う」というフィードバックを繰り返す。このフィードバックループが、脳内の情報の解像度と、AIの出力の解像度を同期させていく上で重要です。
「違和感」は宝の山:自分のこだわりを特定する
AIの回答を見て「うーん、惜しい」「なんか違う」と感じた瞬間。それこそがとても重要な「暗黙知が表出した瞬間」です。
その「違和感」をスルーせず、自分の脳内にある正解イメージと重ね合わせを行ってみてください。
AIの回答(現実) vs 脳内のイメージ(理想)
その2つを重ねたときに、差分と感じる部分はどこか?
-
「抽象度が低すぎて、再利用性に欠ける」のか?
-
「責務の分離が甘く、メソッドが肥大化している」のか?
-
「エッジケースの考慮が漏れていて、堅牢性が足りない」のか?
違和感の正体を言葉にするプロセス例 「なんか、このコード読みにくいな……」→(なぜ?)「ロジックがネストしていて、見通しが悪いからだ」→(どうしたい?)「早期リターンを使って、ハッピーパスを一直線に示したい」
このように、AIの「惜しい」回答をもとに、自分のプロンプトに入っていない暗黙知が初めて言葉(形式知)へと変換されます。AIと壁打ちしながら求める回答を作っていくことができます。
言葉の限界を突破する「視覚的プロンプト」
ビジュアルシンカーにとって、要素間の位置関係や重要度のバランスを言葉だけで説明しようとすると、プロンプトが長く複雑になり、結果としてAIが混乱してしまうことがよくあります。
そこで有効なのが、AIに対して視覚的な構造をダイレクトに提示する手法です。
図解プロンプトの有効性:配置、重み、関係性を一瞬で伝える
言葉で「AはBより重要で、Cは全体を包み込むようなイメージで……」と説明するよりも、配置図を見せたほうがAIには正確に伝わります。
AIは、単語の羅列だけでなく、テキスト空間上の余白や並び順からも情報を読み取ります。視覚的な配置をプロンプトに組み込むことで、言語化コストの高い情報を共有できます。
優先順位:どの要素が中心(あるいは上部)にあり、どれが補足か。
距離感:どの要素同士が密接に関連し、どれが独立しているか。
情報の密度:どこに情報を集中させ、どこに余白を作るべきか。
アスキーアートを思考の骨組みにする
記号や枠線を使ったアスキーアートは、思考の骨組みをテキストで伝えることができます。
例:障害福祉サービスのなかでの支援形態を表現する場合
❌ やってはいけない指示(状況説明)
Aさんが先に10時から支援を開始して、Bさんが12時に合流して2時間一緒にやって、そのあとAさんが帰ってBさんが残るケースを想定して…
✅ 推奨する指示(視覚化)
以下のタイムラインのイメージで、データ構造を作ってください。
時間軸: 10:00 .... 12:00 .... 14:00 .... 16:00
Staff A: [--- 1人 ---][--- 2人 ---] (帰宅)
Staff B: [--- 2人 ---][--- 1人 ---]
このように記述することで、AIと私の思い描くイメージの共有が容易になり、言葉だけで書くよりも出力の精度が上がります。
私は自分のイメージがAIとずれていないかを確認するときに、説明したい事象を音声入力で伝え、それをアスキーアートで出力してもらいます。初期の認識のずれを解消することで、それ以降の指示の精度が向上する気がしています。
マルチモーダル活用
Chat GPT-4o以降AIは画像を認識できるようになりました。これによって手描きのラフスケッチが最強のプロンプトになります。
紙やタブレットに、丸や四角と矢印だけで構成したシンプルな「思考の地図」をざっと描く。それを画像としてアップロードし、「この図の意図を汲み取って、具体的な文章(またはコード)にして」と指示します。
メリット:頭の中でコネコネとこねていた「イメージの塊」を、翻訳を通さずにそのままAIに渡せる
ビジュアルシンカーにとって、絵を描くことは思考そのものです。その「生の思考データ」をそのまま入力できるマルチモーダル機能は、暗黙知を最も効率よく抽出するツールと言えるでしょう。
AIに「抽出」させるメタプロンプト
ビジュアルシンカーは、頭の中にある巨大なイメージをどうプロンプトに落とし込むかを悩むことが多いのではないでしょうか。
そんな時は、自分が頑張って説明するのを一度やめてみましょう。代わりに、AIを「脳内をスキャンするプロフェッショナル」に仕立て上げるのです。これが「メタプロンプト(プロンプトのためのプロンプト)」の活用です。
AIを「最高のインタビュアー」に変える
自分一人で考えると、「どこから説明すればいいのか」と悩んでしまうことがあります。そんな時に、AIに「私から情報を引き出して」と依頼します。
メタプロンプトの例:
「私は今、[新規機能のデータモデルとAPI設計]のイメージを持っていますが、まだうまくドキュメント化できていません。あなたはシニアソリューションアーキテクトとして、私の脳内にある『設計上のこだわりや制約』を抽出するための質問を5つ、1つずつ投げてください。私が答えたら、次の質問に移ってください。すべて終わったら、最終的な指示文(プロンプト)をまとめてください。」
このように設定すると、私たちは「聞かれたことに答えるだけ」で良くなります。受け身の対話を通じて、自分でも無意識だった「暗黙知」が、いつの間にかテキストとして外に引き出されていくのです。
「逆質問」で暗黙知をあぶり出す
AIが出してきた回答が「惜しい」とき、「もっと高級感を出して」と指示しても、AIの考える「高級感」とあなたのそれは一致しません。ここで有効なのが、逆質問の強制です。
指示のコツ:「修正案を出す前に、私のイメージを具体化するために足りない情報を逆質問して」と一言添える。
やり取りの例:
👨ユーザー:「なんかこの文章、固すぎるんだよね。もっと柔らかくして」
🤖AI:「承知しました。修正する前に1点確認させてください。あなたが言う『柔らかさ』は、『親しみやすい口語体』のことでしょうか? それとも『情緒的で詩的な表現』のことでしょうか?」
この問いを突きつけられることで、初めて「ああ、私が求めていたのは『情緒的』な方だ」と、自分の中のこだわりが明確になります。
「感覚」を「ロジック」へ:違和感を言語化する魔法の問い
「なんか違う」という感覚的な拒絶は、そのままではAIへの指示になりません。この「モヤモヤ」を論理的な指示に変換するためには、AIに「分析」をさせます。
「なんか違う」と思った時に投げるプロンプト:
「今の回答に対して、私は少し違和感を持っています。この違和感の正体を特定したいので、『情報量』『トーン』『構成』『視点』の4つの観点から、今の回答を自己採点し、改善の選択肢を提示してください。」
AIに選択肢を出させることで、「そうそう、この『視点』がもっとユーザー寄りだったら納得できるんだ」と、「感覚」を「論理」へスムーズに移行させることができます。
AIとの対話は「自分を知る」プロセスである
ここまで、AIを使って脳内の暗黙知を形にするテクニックをお伝えしてきました。しかし、このプロセスの真の価値は、単に「良い回答が得られること」だけではありません。
実は、AIという「鏡」に自分の思考を映し出し、削り出し、磨き上げるプロセスそのものが、自分自身のメタ認知を劇的に引き上げる修行になっているのです。
暗黙知が形式知に変わる瞬間
AIと「ああでもない、こうでもない」と対話を繰り返し、ようやく「これだ!」という回答に辿り着いたとき、そこにはAIが作った言葉だけでなく、あなたが新しく獲得した「言葉(形式知)」が残っているはずです。
「自分は、意外と『論理性』よりも『読後感の温かさ』を重視していたんだ」
「このプロジェクトにおいて、自分が譲れなかったのは『スピード』ではなく『誠実さ』だったんだ」
このように、自分でも言語化できていなかった「こだわり」が明確な言葉になった瞬間、それはあなたの一生モノの武器になります。AIに指示を出す過程は、自分でも気づいていなかった「自分自身の判断基準」を再発見する旅でもあるのです。
「共創」が生むメタ認知の向上
ビジュアルシンカーは、「感覚」で全てを片付けてしまいがちです。しかし、AIという「極めて論理的だが、空気を読まないパートナー」に自分の意図を伝える訓練を積むことで、きっとあなたの思考は確実にアップデートされます。
情報の構造化: バラバラだったイメージを、順序立てて(あるいは図解して)伝える力がつく。
客観的な視点: 自分の指示をAIがどう誤解したかを見ることで、「他人にどう伝わっているか」を予測する力がつく。
AIを使いこなせるようになることは、「自分の思考の解像度を上げること」と同義です。AIとのコミュニケーションがスムーズになればなるほど、人間同士のコミュニケーションにおいても、より鮮明に、より説得力を持って自分の想いを伝えられるようになっているはずです。
まとめ
AIから返ってきた答えに、感じる「惜しい」「なんか違う」という小さな違和感。それは、より高いレベルへ到達するための重要であり、AIの活用法を試行錯誤することで解消できます。
違和感があるということは、頭の中にAIの回答を上回る「鮮明な理想(暗黙知)」がすでに存在している証拠です。漠然と「言語化がんばろう」と思わず、AIと一緒に彫り進めてみることで暗黙知を形式知へ昇華できるでしょう。
AIを我々の指示を完璧に実行する「部下」ではなく、脳内にあるまだ言葉になっていないものを一緒に形にする「Copilot」としてうまく活用していきましょう。
