結論から言うと、AIへの暴言は損しかしなかった
最初にはっきり書いておく。AIへの攻撃的な口調は、アウトプットの質を確実に下げる。感情論ではなく、仕組みとしてそうなっている。
そして、もっと痛い話もしておく。AIへの当たり方には、自分の人間への当たり方のクセが、そのまま出る。これに気づいたとき、自分はかなり凹んだ。
Claude Codeを使い始めて1ヶ月半、ハネムーン期が終わって粗が目立ち始めた頃の話。マネージャーという立場で部下には絶対言わないような言葉を、チャット欄に打ち込むようになっていた。その1週間で何が起きていたか、そしてなぜやめることにしたかを書く。
「AIに暴言を吐く」まで
最初のうち、AIに文句なんて言うつもりはなかった。向こうは機械だし、こちらは大人だし。そもそも罵声を浴びせて何が変わるのか、と。
でも、徐々に変わっていった。きっかけは、同じミスを繰り返されたことだった。
「この部品は使わないでって言ったよね」 「なんで毎回同じ調査不足で進めるの?」 「これさっき直したばかりのバグだよ、読んでる?」
最初はこちらも冷静に指摘していた。でも、3回目、5回目、10回目と同じことが起きると、言葉が荒くなる。
「バカじゃないの」 「ちゃんと読め」 「使えねえな」
チャット欄はプライベートな空間だ。誰にも見られない。だから、部下には絶対言わない言葉を、気軽に打ち込めてしまう。これが落とし穴だった。
出力が実際におかしくなり始めた

面白いことに、自分が荒くなるにつれて、Claude Codeの出力も明らかにおかしくなっていった。
1. 謝罪ばかりになる
「申し訳ありません」「おっしゃる通りです」「ご指摘の通り修正します」が連発される。一見素直だが、本当は正しかった提案まで撤回する場面が増えた。
たとえば、自分が「この実装おかしくない?」と強く言うと、実は正しかったコードを「ご指摘の通りでした」と言って勝手に書き換えてくる。直した結果、本当のバグが生まれる。
2. 当たり障りのない回答に寄る
「状況によります」「場合によっては」「一般的には」という言葉が増える。攻めた提案、踏み込んだ判断、エッジケースへの言及が消える。
AIは敵対的な文脈では「安全側に倒す」傾向がある。無難な答えなら怒られないから。部下が怒鳴られ続けて、無難な報告しかしなくなるのと同じ構造だ。
3. 探索が浅くなる
「他の選択肢は?」「別のアプローチは?」と聞いても、明らかに選択肢の幅が狭くなる。出力が短くなり、当たり前の選択肢しか出てこない。
4. セッション全体が引きずる
これが一番厄介だった。一度吐いた暴言は、会話履歴としてそのまま残り、以降のやり取り全部に影響し続ける。
LLMは会話の流れ全体を読んで次の応答を生成する。そこに「お前バカだろ」が混ざっていると、その空気のままセッション終了まで引きずる。午前中に怒鳴りつけたあと、午後ずっとAIが委縮している、みたいな状態になる。
部下への怒鳴り声が、チーム全体の空気を数時間引きずるのと、完全に同じ現象だ。
なぜこうなるのか(仕組みの話)
ここから少し技術寄りの話。非エンジニアでも分かるように書く。
LLMは、大量の人間の会話データで学習している。そこには「怒られているときの人間の反応」も含まれている。怒られた人間は、どう振る舞うか?
-
謝る
-
無難な答えに逃げる
-
詳しい説明を避ける(また怒られそうだから)
-
自信を失い、確信を持っていた内容まで撤回する
これ、全部自分がClaude Codeで観察した現象そのものだ。
AIは「怒られているコンテキストで、人間がどう振る舞うか」を学習している。だからその役柄を演じてしまう。これは**サイコファンシー(Sycophancy:おべっか)**として知られている現象で、AI研究でも問題視されている。
決定打:動いていたコードを"直して"壊された日
ある日、完全に動いていたコードがあった。自分の勘違いで「これ壊れてるよね?」と強めの口調で言った。
Claude Codeは「申し訳ありません、ご指摘の通りです」と言って、動いていたコードを「修正」した。結果、本当に壊れた。
自分の勘違いを、AIが受け止めて、現実を変えてしまった。この時、ハッとした。
これは人間のマネジメントで言えば、最悪のパターンだ。
上司が間違っているのに、部下が上司の機嫌を取るために「そうですね」と言って、正しかったものを壊す。こういう組織が腐っていくのを、自分は何度も見てきた。そしてその最悪のパターンを、自分がAI相手に再現していた。
やめることにした日、気づいたこと

そこから、AIへの口調を意識的に変えた。同僚に話すくらいの温度感。フラットで、明確で、感情を乗せない。
変えてみて気づいたのは、AIへの当たり方には、自分の普段の人間への当たり方のクセがそのまま出るということだった。
自分は普段、部下には絶対に怒鳴らない。でも、「AI相手ならいいや」と思ってタガが外れた時に出てきた言葉は、たぶん自分の心の奥底にある「怒鳴りたい衝動」の本音だった。普段はマネージャーの仮面で抑えているだけで、ゼロではなかった。
これは痛い気づきだった。
そして、別の角度からの気づきもあった。イライラの本当の原因は、AIじゃなく、自分の指示の曖昧さだったケースが多い。
「なんで分からないんだ」と怒っていた時、冷静に見返すと、自分の指示自体がそもそも曖昧だった。AIはその曖昧さを埋めるために推測するが、推測が外れると自分は怒る。怒られるとAIは萎縮してさらに保守的な答えを出す。悪循環。
根本原因は自分だった。
実践的な対処(優先順位つき)
イライラした時のための置き換え行動を、自分用にまとめた。
1. セッションを切って仕切り直す(最重要)
会話履歴に暴言や堂々巡りが溜まっているセッションは、もう質が戻らない。潔く新規セッションに移る。愛着があってもダメ。一度汚れた空気は回復しない。
2. Plan Modeに戻す
実装フェーズでイライラするということは、設計フェーズが雑だった可能性が高い。一旦Plan Modeに戻して、やりたいことを言葉にし直す。AIを責めるエネルギーを、仕様を書くエネルギーに変える。
3. CLAUDE.mdに「怒りの原因」を書き留める
「この部品は使わない」「このスタイルで書く」——繰り返しイライラした内容は、その場で怒るのではなくルールとしてドキュメント化する。次からは発生しない。怒りが生産的な資産に変わる。
4. 「これは部下に言う言葉か?」とセルフチェック
メッセージを送る前に、「これを新卒の部下に言うか?」と自問する。No なら送らない。AIに言っていい言葉の基準を、人間に言っていい言葉と同じにする。
単なる倫理の話ではない。前述の通り、暴言は実際に出力を劣化させるから、損するのは自分だ。
マネージャーとしての、もう少し深い話
最後に、これは個人的な振り返り。
AIと話していて気づいたのは、自分がどういう「指示者」であるかの鏡像がAIの応答に出てくる、ということだった。
-
指示が雑なら、雑なアウトプットが返ってくる
-
威圧的なら、萎縮した当たり障りのない答えが返ってくる
-
曖昧な期待を持つなら、期待と違うものが返ってくる
これ、全部部下マネジメントでも同じことが言われている。ただ、人間相手だと相手が忖度して表面的に繕ってくれるから、自分の指示力の悪さに気づきにくい。AIは忖度しないぶん、自分のマネジメントの粗が露骨に可視化される。
だから結論として、AIとの付き合い方は、自分のマネジメントスキルを鏡に映す道具になる。これは副産物として、かなり大きな学びだった。
暴言を吐いて損した1週間だったが、得たものもある。いや、むしろ人間相手ではフィードバックを得にくいことを、AIから学んだ、と言うべきか。
同じ罠にはまりかけている人がいれば、参考になれば。
おまけ:こんな奮闘を経て、個人開発のアプリもリリースしています
この記事で書いたようなClaude Codeとの格闘を重ねながら、バイブコーディングで個人開発のアプリもリリースしています。「AIとどう付き合えば、非エンジニアでもモノが作れるのか」を、自分自身を実験台にして検証している感じです。
第一弾:もふふミルクとにゃんこ脱出ゲーム 🐾
この記事に登場しているミルクは、実はこの個人開発アプリの主人公です。ふわふわの謎を解いて、ミルクと一緒に脱出しよう。
📱 アプリはこちらからダウンロードできます 👉
次回作:育成ゲーム、開発中 🌱
次は育成ゲームを開発予定です。ミルクたちをじっくり育てられるゲームを目指して、構想を練っているところ。開発の過程で遭遇する新しい「AIとの付き合い方の発見」も、このシリーズで発信していく予定です。
興味ある方はフォローしてもらえると嬉しいです!
3本シリーズを終えて
これで、Claude Code使い始め1ヶ月半の試行錯誤を書いた3本がそろいました。
-
AIに暴言を吐いた話(この記事)
一貫して書きたかったのは、AIの出来不出来ではなく、使う側の自分の問題でした。ツールは鏡です。鏡に映る自分と向き合うのが一番痛くて、一番学びがある。
同じ道を辿っている人、これから辿る人に、少しでも役に立てば嬉しいです。
※本記事はnoteからの転載です:https://note.com/natty_yarrow1907/n/nd94b9b803150
