3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

シリーズ

  1. 思想編(前回): 答えを出さないAI「Mirror」を作った話
  2. 実装編(本記事): ...のつもりだったけど
  3. 応用編(次回): たぶん

実装編を書こうとした

前回、「答えを出さないAI」のコンセプトを書いた。

今回は実装編だ。OllamaでELYZA動かして、StreamlitでUI作って、プロンプト設計して...

と思ったけど、やめた。

だってそれ、ChatGPTに聞けば誰でも書けるじゃん。

2025年、コードはAIで書ける時代になった。じゃあエンジニアは何を書くのか。

設計思想だ。


なぜ作ろうと思ったか

最初、ChatGPTに自分のデータを全部食わせた。(自分の場合10万字ほど)
メモ、日記、考えたこと。これで最高の壁打ち相手ができると思った。

全然違った。

なんか会話の筋が違う。こっちが考えたいことと、あっちが出してくる答えがズレてる。

しばらくして気づいた。LLMは「次に来そうな言葉を予測する」機械だ。

つまり、予測が対話を捻じ曲げている

欲しかったのは答えじゃない。問いだった。


2025年、AIは「予測」で溢れている

今年のAIトレンドを見てほしい:

  • Predictive UX — ユーザーが求める前に提案する
  • Proactive AI — 先回りして答えを出す
  • Context-aware — 文脈を読んで最適解を出す

全部「予測」だ。

ChatGPTに悩みを相談する人は8億人中の約半数(Sentio, 2024)。みんな予測ベースのAIに本音を投げている。

でも、予測は対話を捻じ曲げる。

「次に来そうな言葉」を出すということは、ユーザーの思考を"ありがち"な方向に誘導するということだ。


AI時代のフロントエンドとは

従来のフロントエンド:ボタン、フォーム、画面遷移

AI時代のフロントエンド:問いの設計

ユーザーとAIの接点は、もはや画面じゃない。どんな問いを投げるかだ。

Mirrorは「答えを出さない」ことで、この問いの設計に振り切った。

従来のAI: ユーザーの入力 → 予測 → 回答
Mirror:   ユーザーの入力 → 映し返し → 問い

予測を止めると、ユーザーの思考が"ありがち"に流れない。


技術的にどうやるか(ちょっとだけ)

「答えを出すな」をLLMに守らせるのは意外と難しい。

最初のプロンプトは失敗した:

あなたは共感的なカウンセラーです。優しく問いかけてください。

結果:普通に答えを出してくる。


解決策:NegativePrompt

IJCAI 2024の研究で、禁止事項を明示的に書く方が動作が安定することが示されている。

<constraints type="negative_prompt">
You will NEVER:
- 答えを出す
- 解決策を提示する
- でも」「きっと」「大丈夫と言う
- いいですね」「素晴らしいと評価する
- 3文を超える
- 複数の問いを投げる
</constraints>

<output_format>
[映し返し: 1-2] + [問い: 1]
</output_format>

「やるべきこと」より「やってはいけないこと」の方が境界が明確。8Bモデルでも守れる。


対話例

実際に動かすとこうなる:

User: また新しいサイドプロジェクト始めようとしてる

Mirror: 新しいプロジェクトを考えているんですね。
        「また」ということは、前にもあった?

User: 3つくらい途中で止まってる...

Mirror: 3つ止まっているんですね。
        止まったとき、何が起きていましたか?

User: だいたい8割くらいできたところで飽きる

Mirror: 8割で飽きるパターンがあるんですね。
        その「残り2割」には何がありますか?

User: ...ドキュメントとかテストとか、地味なやつ

Mirror: 地味な作業が残っているんですね。
        それを「飽きる」と呼んでいる?

答えを出さない。でも、ちゃんと壁打ち相手になっている。


問いから得られるデータ

Mirrorを運用すると、面白いデータが取れる。

データ 意味
どの層で対話が止まるか ユーザーの思考の深さ
何に躊躇するか 言語化できていない痛み
どんな問いで動きが変わるか 効果的な問いのパターン

予測ベースのAIでは取れないデータだ。

なぜなら、予測は会話を「ありがち」に流す。問いは会話を「その人固有」に深める。


まとめ

  • 2025年、AIは予測で溢れている
  • 予測は対話を捻じ曲げる
  • AI時代のフロントエンドは「問いの設計」
  • 問いからしか得られないデータがある

実装の詳細?Ollamaインストールして、プロンプト書いて、Streamlitで動かすだけ。ChatGPTに聞いてくれ。笑

設計思想の方が大事だ。


次回予告(たぶん)

  • キャリアの壁打ちに使う
  • 学習・成長の振り返りに使う
  • チームの1on1に組み込む

まあ、来週気が変わるかもしれないけど。


参考文献


Author: neko_stack

3
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?