(スマホでAIに書かせました)
はじめに
「生成AIへの指示の書き方が分からない...」
自然言語を理解する機械が登場したものの、私たちの多くは「自然言語で効果的に命令する方法」をまだ習得していません。
それもそのはずです。自然言語は、プログラミング言語が持つ厳密さとは異なり、無限の表現力と柔軟性を持つ完全上位互換の存在です。
この強力すぎる言語というツールを、私たちはこれまで「疲れない超知的な人間」を相手に、「長時間使い倒す」といった経験をした事がありませんでした。人間には認知負荷の限界が存在するからです。
加えて、多くの人が実際には「人に命令する側」よりも、「人に命令される側」なのが現状です。
そもそも、誰かに仕事を「させる」事自体に慣れていないのです。
そして、労働力を使いこなすための高度な方法論は、未だオカルトめいた「暗黙知」の領域に留まっています。
ネットであらゆる知識にアクセス出来る時代に、未だにビジネス新書が平積みされ、毎月のように入れ替わっている事がその証左です。
この問題への初期の解決策として、私たちは「あなたはプロの〇〇です」といった、いわゆる「ロールプレイ(役割演技)」プロンプトを多用してきました。しかし、AIが急速に進化する今、この手法は陳腐化し、その効果を失いつつあります。
本記事では、単純なロールプレイプロンプトから脱却し、AIの真の能力を引き出すための新しいアプローチ、「コグニティブ・デザイン」について解説します。
「役割演技プロンプト」の限界
かつて有効だった「あなたはプロの編集者です」のような指示は、AIに制服を着せるようなものでした。特定の役割の「制服」を着せることで、それっぽい言葉遣いや思考の型を、手っ取り早く呼び出すことができたのです。
しかし、このアプローチには大きな問題がありました。
- ① 陳腐化・没個性化: みんなが同じ「制服」を着せるため、アウトプットはステレオタイプな「プロ像」に収束してしまいます。あなた自身や、あなたの組織が持つ独自の哲学はそこにはありません。
- ② 効果の希薄化: AIが賢くなるにつれ、タスクの内容から「これは編集者としての視点が必要だな」と自ら推論し、自分で制服を着るようになりました。結果として、わざわざ指示する意味が薄れてしまったのです。むしろ、ロールプレイ指示する事により、紋切り型のペルソナ模倣により、本来の高度な推論能力が阻害されるケースが多発するまでになってしまいました。
このような役割演技形式のプロンプトは、「メタプロンプト」と呼ばれています。
メタとは、「高次の」という意味合いで、「物事を高次から抽象化して観察する」という概念になります。
抽象というのは、状況に合わせて相対的に適用される概念です。
生成AIが進化し続ける今、使う側の我々も、「メタ」の定義を進化させる必要があります。
なぜAIはあなたの状況を理解できないのか?
いきなりですが、質問です。
あなたは初対面の人間といきなり結婚できますか?
ほとんどの人が「No」と答えるはずです。なぜなら、「結婚する」という形式的な契約は、それまでに築かれた膨大な暗黙的な信頼関係(価値観の共有、共に過ごした時間、相手への理解など)という土台なしには成り立たないからです。
実は、AIへの指示もこれと全く同じ構造をしています。
ソフトウェア開発の世界に、BDD=ビヘイビア駆動開発という手法があります。
これは
- Given(前提)
- When(いつ)
- Then(結果)
という自然言語に近い書式で仕様を記述し、関係者の認識齟齬をなくすためのものです。
しかし、多くの開発者が「このGiven(前提)を自然言語で記述するのが、実は最も難しい」と言います。
なぜなら、それは「結婚」の比喩と同じ問題を抱えているからです。
私たちは簡単な前提を書いているつもりでも、その裏にある膨大な「暗黙知」や「文脈」までを、数行の文章で伝えようとしているのです。
それは原理的に不可能です。
AIとの対話における困難の正体は、まさにこれです。
私たちはAIにGivenを渡しているつもりで、その実、膨大な「信頼関係」の構築をすっ飛ばして「結婚(=タスク実行)」を迫っているのです。
次のレベルへ:「マニュアル」から「憲法」へ
では、どうすればAIに私たちの「暗黙知」をインストールできるのでしょうか。
そのヒントは、「マニュアル」と「憲法」の違いにあります。
- マニュアル(旧来のプロンプト):
- 「こういう場合は、こうしなさい」という具体的な指示。
- 既知の問題には強いが、マニュアルにない未知の問題には対応できない。
- 憲法(新しいメタプロンプト):
- あらゆる判断の根幹となる最高位の基本原則。
- 未知の問題に直面したとき、どの原則に立ち返って判断すべきかという指針を与える。
そして、この「憲法」の正体とは、いわば意図されたバイアスの実装に他なりません。
ここで言うバイアスとは、不公平な偏見のことではなく、「無数の選択肢の中から、望ましい判断を行うための意図的な指針」、つまり問答無用の「欲動」のことです。この価値判断の軸をAIに埋め込むことで初めて、AIは未知の状況でも一貫性のある、あなた「らしい」思考を展開できるようになるのです。
これからのAIとの対話で求められるのは、個別のタスクを記した「マニュアル」を与えることではありません。AIが全ての行動の拠り所とする、あなただけの「メタ憲法」を制定し、インストールすることなのです。
そしてこの「メタ憲法」は、誰かが魔法のように授けてくれるものではありません。
あなたが、自分で書くことに、意味があります。
この最も根源的な設計を他者に委ねることは、自身の思考の核を見知らぬ誰かに明け渡す行為に他なりません。
偏見=欲動の決定を他者に委ねた時点で、それはまさに「AIにより置換可能な下位互換の存在」に成り下がってしまいます。
思考のレンズを設計する「コグニティブ・デザイン」
この「憲法」をAIにインストールする体系的な方法論が、コグニティブ・デザイン=認知設計です。
これは、AIに外面的な「役割(Role)」を与えるのではなく、内面的な「世界の捉え方のレンズ(Lens)」を与えるという考え方に基づきます。
この「レンズ」は、以下の5つの要素で設計されます。
実践例:コグニティブ・デザインのサンプル
では、この「コグニティブ・デザイン」を実践でどのように使うのか、具体的なサンプルを見てみましょう。
お題: 社内向けに、新しいAIチャットボット開発の予算獲得を目指す「企画書」のドラフトを作成する。
NGな指示(旧来のプロンプト)
あなたはプロのコンサルタントです。AIチャットボットを導入するための企画書を作成してください。
これでは、誰に向けた、どんな背景を持つ、何を最優先した企画書なのかが全く分からず、ごく一般的で陳腐なアウトプットしか出てきません。
OKな指示(コグニティブ・デザイン)
# 思考のレンズ
## 前提 (Premise):
- 我々のビジネスにおける最優先事項は「顧客満足度の向上」である。
- 経営陣は常にROI(投資対効果)を重視し、データに基づいた判断を好む。
- 社内向けの企画書は、要点を3ページ以内にまとめるのが慣例である。
## 状況 (Situation):
- 顧客からの問い合わせ件数が、前四半期比で30%増加している。
- これによりサポート部門の負荷が増大し、応答時間が長期化、顧客満足度が低下傾向にある。
- 競合のX社は、すでにサポート業務にAIを導入し成果を上げている。
## 目的 (Purpose):
- 経営会議において、AIチャットボット開発プロジェクトの正式な予算(500万円)の承認を得る。
- そのための説得材料として、背景・目的・期待効果・開発計画を明確に記した企画書のドラフトを作成する。
## 動機 (Motive):
- このプロジェクトの根源的な狙いは、単なるコスト削減ではない。
- **人間のスタッフを単純な問い合わせ対応から解放し、彼らが持つ共感力や高度な問題解決能力を、本当に困っている顧客のために集中させることにある。**
- これにより、顧客満足度だけでなく、従業員満足度も向上させ、優秀な人材の定着を図る。
## 制約 (Constraint):
- 専門用語の使いすぎを避け、誰が読んでも理解できる平易な言葉遣いをすること。
- 既存のサポート部門の働きを否定するような表現は一切使わず、彼らを支援するためのツールであるという視点を貫くこと。
- Markdown形式で出力すること。
このように「レンズ」を設計してAIに渡すことで、AIは単なる事実の羅列ではなく、あなたの組織の価値観(欲動)に基づいた、説得力のある一貫したストーリーを生成することが可能になります。
まとめ
AIとの協業は、新しいフェーズに突入しました。
- 表層的な役割演技=ロールプレイは、もはや通用しない。
- その根源には、暗黙知の壁がある。
- 解決策は、個別の「マニュアル」ではなく、パーソナルなメタ憲法をAIに与えること。
- その具体的な設計手法がコグニティブ・デザインである。
- それは実践的なサンプルで示すように、具体的な指示として体系化できる。
私たちの役割は、単なる「プロンプトを投げる人」から、AIの思考そのものを設計する思考の設計者=Cognitive Designerへと変わっていきます。
AIの進化に合わせて私たち自身も進化していくことこそが、これからの時代に求められるスキルなのかも知れません。
参考論文
- 論文名: "Constitutional AI: Harmlessness from AI Feedback"
- 論文URL: https://arxiv.org/abs/2212.08073
- 公開日: 2022年12月
Anthropic社が提唱する「憲法AI」は、AIの行動を律するための一連の**明示的な原則(a list of principles)**を「憲法」として与えるアプローチです。
これは、AIに場当たり的な指示を与えるのではなく、行動の根幹となる「価値観」や「基本原則」を与えることの有効性を実証しています。「コグニティブ・デザイン」における前提や動機を定義することの重要性を、トップレベルの研究機関が示している強力なエビデンスです。論文では、このアプローチの目的を以下のように述べています。
"The aim is for the AI to learn to answer questions helpfully and harmlessly without relying on human feedback [...] and for its principles for doing so to be transparent."
(その目的は、AIが人間のフィードバックに頼ることなく役立つ形で無害に応答することを学習し、また、そのための原則が透明であることである)
- 論文名: "Structure Guided Prompt: Instructing Large Language Model in Multi-Step Reasoning by Exploring Graph Structure of the Text"
この研究は、複雑な推論タスクにおいて、プロンプトに明確な論理構造を与えることの有効性を直接的に示しています。提案されている「構造化誘導プロンプト」は、曖昧な自然言語のテキストを、関係性が明示されたグラフ構造に一度マッピングさせ、その構造に沿って思考を進めさせる手法です。
これは、「コグニ-ティブ・デザイン」における「レンズ」の役割、すなわち思考のための枠組み(状況、目的、制約)を与えるというアプローチと完全に一致します。論文では、この手法の効果を次のように結論付けています。
"it enables LLMs to provide more accurate and context-aware responses."
(これにより、LLMはより正確で、文脈を認識した応答を提供できるようになった)
- 論文名: "When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models"
- 論文URL: https://arxiv.org/abs/2311.10054
- 公開日: 2023年11月
「役割演技(ペルソナ)プロンプトの限界」を学術的に検証した研究です。「〜の専門家として振る舞ってください」といった指示が、必ずしもLLMの性能を向上させるわけではないことを示しています。
これは、表層的なペルソナ設定から、より本質的な行動原則の定義(=憲法)や構造化された思考の枠組み(=レンズ)へと移行する必要がある、という提言の正当性を補強するエビデンスです。論文の結論部では、以下のように述べられています。
"Contrary to popular belief, adding personas to system prompts does not necessarily improve the performance of LLMs and, in some cases, can even be detrimental."
(一般的な信念に反して、システムプロンプトにペルソナを追加することは、必ずしもLLMの性能を向上させるわけではなく、場合によっては有害でさえある)