8
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

きっかけ

MBTIや性格診断を受けたことがある人は多いと思う。

結果を見て「当たってる」と思う。でも、それが「自分」かと言われると、なんか違う。

「そう解釈されるのはわかる。でも自分はそのつもりじゃない」というギャップがある。

外から与えられた「答え」は、どこか他人事なのだ。


一方で、過去の経験と今がふとつながる瞬間がある。

「あ、これが自分だ」と腹落ちする瞬間。

それは誰かに教えてもらったわけじゃない。自分で気づいた瞬間だ。

この違いは何だろう?

仮説

答えをもらっても、人は変わらない。

自分で気づいたとき、人は変わる。

だとしたら、AIの役割は「答えを出すこと」ではなく「気づきを促すこと」なのでは?

作ったもの

「Mirror」という対話AIを作った。

image.png

image.png

特徴は一つ。答えを出さない。

【従来のAI】
ユーザー: 「仕事がつらい」
AI: 「こうすればいいですよ」 ← 答えを出す

【Mirror】
ユーザー: 「仕事がつらい」
AI: 「そのつらさは、いつ頃から感じていますか?」 ← 問いを返す

解決策を提示しない。励まさない。共感しすぎない。

ただ、問いを投げる。

対話例

User: 転職しようか迷ってて

Mirror: 何が迷わせていますか?

User: 今の会社、嫌いじゃない。でもこのままでいいのかなって
      ...なんか関係ない話していいですか

Mirror: どうぞ。

User: 昔からそうなんですよ。周りが動くと気になる。でも自分からは動けない

Mirror: それはずっとあるパターンなんですね。

User: ...あー、そうかも。言われてみると

答えは出していない。脱線もする。でも、ユーザーは自分で何かに気づいていく。

なぜ「答えを出さない」のか

心理学の研究に面白いデータがある。

心理療法において、39-46%の患者が「突然の改善」を経験する。
Change is Not Always Linear (PMC)

変化は線形の積み上げで起きるのではない。ある瞬間、一気に起きる。

そのトリガーは「答え」ではなく「直面」だ。

自分の内面を見つめ、逃げずにそこにいること。

Mirrorは、その「直面」を助ける装置として設計した。

なぜMirrorか

「カウンセラーに話せばいいのでは?」

人には話せないことがある。判断される、弱みを見せたくない、相手の時間を取る申し訳なさ。AIにはこれがない。深夜3時でも「どうぞ」と言う。

「ChatGPTでいいのでは?」

ChatGPTに愚痴ってる人は多い。でも、こうなる。

User: 仕事つらい

ChatGPT: それは大変ですね。いくつか対処法を提案しますね。
         1. 上司に相談してみましょう
         2. タスクの優先順位を...

Mirror: つらいんですね。何がつらいですか?

ChatGPTは解決しようとする。Mirrorは問いを返す。

あと、ChatGPTはセッション単位で文脈がリセットされる。Mirrorはセッションを跨いで保持する。1週間前に話した「周りが動くと気になる」を、今日のセッションで拾える。

技術的なポイント

プロンプト設計

核心はシステムプロンプト。禁止事項を明確にした。

禁止事項:
- 答えを出さない
- 解決策を提示しない
- 感情を上書きしない(「大丈夫」「頑張って」は言わない)
- 評価しない(「いいですね」「素晴らしい」は言わない)
- 長く話さない(2-3文以内)

問いの技法

カウンセリングの技法を参考にした。

  • クリーン・ランゲージ: 相手の言葉をそのまま使う
  • フォーカシング: 「体のどこで感じますか?」
  • ナラティブ: 「その物語はいつ頃から始まりましたか?」

構成

Mirror/
├── app.py          # Streamlit UI
├── prompts.py      # システムプロンプト
└── requirements.txt

技術スタック

項目 選定
UI Streamlit
LLM Ollama + ELYZA-JP-8B(ローカル推奨)
代替LLM Groq / Claude / GPT-4o (工事中)
感情分析 oseti(日本語)

ローカルで動く。Ollamaを入れればAPIキーなしで使える。

所感

作ってみて気づいたこと。

「答えを出さない」のは難しい。

LLMは答えを出したがる。励ましたがる。解決したがる。
それを抑え込むプロンプト設計が、このプロダクトの核心だった。

うまくいかなかったこと

  • 問いが連続すると尋問になる - 3回連続で問いを返すと「責められてる感」が出た。間を置く設計が必要
  • 沈黙に弱い - ユーザーが「...」だけ打つと、AIが焦って長文を返す。沈黙を許容するプロンプトが要る
  • 深くなりすぎる - 5分で核心に触れてしまうことがある。そこまで準備できていないユーザーには逆効果

もう一つ。

AIツールの進化で「どう作るか(How)」は爆速になった。
Codex、Claude Code、Cursor、Copilot...

でも、「何を作るべきか(What)」は出てこない。

そして、「どう使わせるか(UX)」も変わりつつある。
答えを出すUIから、問いを返すUIへ。
Context-Aware UIが2025年のトレンドとして語られ始めている。

Mirrorは「What」から始めた。
痛みを見て、直面を設計して、それから実装した。

AIが「答えを出す」方向に進化し続けるなら、
人間は「問いを立てる」側に回るしかない。

Mirrorは、その未来への一つのアンサーかもしれない。
「答えを出すAI」と「問いを出すAI」。両方があっていい。


最初に書いた問いに戻る。

外から与えられた「答え」は、どこか他人事だ。
自分で気づいた瞬間は、腹落ちする。

Mirrorは、その「自分で気づく」を助けるAIだ。

次回

来週は、このプロンプト設計の詳細と、実際に動かして見えた課題を書く。


シリーズ

  1. 思想編(本記事): 「答えを出さないAI」を作った話
  2. 実装編(来週): プロンプト設計の詳細
  3. 応用編(再来週): キャリア・メンタル・学習への応用

参考

8
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
8
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?