0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIには「嫌われる勇気」がない

Last updated at Posted at 2026-01-18

AIは、もっともらしい正しいことを言います。
そして、その場の空気を読むことがとても得意です。

手当たり次第に発言を全肯定し、なんならおべんちゃらも言ってきます。

だからこそ、AIにはどうしてもできない仕事があります。

それが 「嫌われるかもしれない判断を引き受けること」 です。

AIは「無難な正解」を出すのが得意

最近のAI、優秀ですよね。
僕自身、特にCalude Codeにはとてもお世話になっています。

  • 仕様はちゃんと読む
  • 過去のベストプラクティスを踏まえたコードを出してくる
  • リスクもきれいに箇条書きしてくれる

でも、AIの提案ってだいたい同じ匂いがします。

全部だいたい正しい。
でも、全部、無難で味がしない感じがしませんか?

「技術的にはこちらが望ましいです」
「将来の拡張性を考えると…」
「ベストプラクティスとしては…」

全部だいたい合ってる。
でも、実際の現場では その通りにやらない判断がされることも多い

現場では「正しさ」より「前に進む」が勝つ(?)

例えば、レビューの場で、AIっぽい指摘が出る。

「一般的には〇〇の構成が推奨されています」

レビュー参加者は「来たな」という空気になり、お互いを静かに見やる。

  • それは知っている
  • たぶん、これはAIの発言をそのまま言ってるのだろうな
  • でも今の制約では無理
  • 前提条件が違う

しばらく沈黙が流れて、誰かが口を開く。

「理想はそうだけど、今回は採用しない。まずは現場で回る形を作ろう」

これは正論ではない判断です。
でも、これで実際の現場では、話は確実に前に進みます。

なんだかんだで、「一般的な無難な話」で終わってしまうのが、AIなのです。

無難から逸脱した、嫌われる可能性のある発言を、AIは言えないのです。

LLMはその構造上、無難で当たり障りのないことしか言えない

LLMはそういう構造で作られているとも言えます。

LLMは、「正解らしさが高い文章」を確率的に選び続ける仕組みです。
言い換えると、

  • 多くの人が否定しにくい
  • 反論されにくい
  • 角が立たない

そういう言葉ほど、選ばれやすいように学習が施されています。

だからLLMの発言は、自然と無難な結果になります。

  • 2つ以上の意見があった場合、両論併記が多い
  • 断定を避ける
  • 「状況によります」で逃げる
  • 最終判断を人に委ねる

どれも間違っていないです。
でも、踏み込まない のです。

正確には、言えない。

なぜなら、

  • その判断で誰かが困るかもしれない
  • 後で失敗したときに責任を取れない
  • ユーザーに嫌われる可能性がある

そういった要素は、確率的に「選ばれにくい言葉」だからです。

AIは「嫌われるリスク」を取れない

AIはとにかく波風を立てない。

  • 強く断定しない
  • 責任の所在をぼかす
  • 両論併記が大好き

それは賢さでもあるけど、決断から一歩引いてる態度でもあります。
責任を負うことから逃れてるとも言えます。

一方で、現実の物事を前に進めるために人間は泥臭いやり取りを引き受ける。

  • 空気が悪くなると分かってても言う
  • 後で揉めるかもしれないけど決める
  • 自分が嫌われ役になる

この「嫌われる勇気」を取れるのが、人間に残された価値だと思います。

嫌われる勇気がないと、意思決定は腐る

チームの成長が止まるときって、だいたいこんな感じです。

  • 誰も反対しない
  • でも誰も腹落ちしてない
  • 「一旦これで様子見」が続く

AIは、この状態をめちゃくちゃ加速させるリスクがあると最近思っています。

なぜなら、

  • 波風立てない提案
  • 無難な代替案
  • 誰も傷つかない言い回し

を量産できるから。

結果どうなるか。
誰も責任を持たない決定ができあがる土壌を育ててしまう。

人間の仕事は「責任を引き取ること」

AI時代に、人間がやるべきことはシンプル。

  • 判断する
  • 決める
  • 引き受ける

そして、ときには

  • 嫌われる
  • 文句を言われる
  • 後で謝罪する

これも全部セットです。

AIは判断材料は出せる。
でも、判断そのものはできない

なぜなら、
「嫌われてもいい」という覚悟を持てないから。

「嫌われない人」ほど危険な時代

真面目で、論理的で、正しい人ほど

  • 角を立てない
  • 波風を立てない
  • 無難なコメントしかしない

その結果、
「何も決めない人」になる。

AI時代はこのタイプが一番価値を失うと僕は考えている。

だってAIのほうが、もっと早く、もっと綺麗に、
同じことをもっともらしく無難に言えるから。

まとめ

AIは優秀です。
でも、嫌われる勇気がない。

だから人間は

  • 正しさだけで話さない
  • 感情で動く
  • 空気を読んだ上で、あえて壊す
  • 自分が矢面に立つ

この役割を引き受ける必要がある。

AI時代に残るエンジニアは、

一番正しい人じゃない。
一番、決断を引き取れる人だと思う。

それは、AIにはできない仕事だから。

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?