0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

前職でコンテキストゼロ上長に『AIっぽい』と疑われて、私が席を立って問い詰めた話

0
Last updated at Posted at 2026-03-31

こんにちは。@m_koshikawa です。

TL;DR
「このツールのドキュメント作成して」——それだけの一言で、私は画像まで付けて全力手書きした。
提出したら上長から返ってきた言葉は「これ、AIで書いたんですか?」

普段絶対に怒らない私が、チャットで我慢できずに席を立って問い詰めた。
AI使って書いたコードは何も言われなかったのに、自分の手で丁寧に書いたドキュメントだけがAI認定された。

この体験から学んだのは、「AIを使うな」じゃない。
「使い方の解像度を上げろ」だ。
コンテキストを渡さない側が、出力の品質を出自で疑う構造そのものがヤバい。


依頼の瞬間、私は完全に勘違いしていた

前職のクライアントワークで、詳細設計の検証用プログラムのドキュメント作成を頼まれた。

上長からのメッセージはこれだけ。

「このツールのドキュメント作成して」

スコープなし、前提条件なし、読者の定義なし。
関係部署がどう見るのかも、何を期待しているのかも、何も教えてくれない。

私は素直に額面通り受け取った。
「読む人が初めて見る前提で、誰が読んでもわかるように丁寧に書こう」と本気で思った。

普段コーディングはAIとガッツリ協働してるけど、このドキュメントだけは一語一語自分の手で書いた
AIに丸投げしたら味気ない気がしたし、「自分の責任で出すもの」だと思ったからだ。

画像も丁寧にキャプチャして説明を入れ、構成も論理立てて、読み手に優しく書いた。
正直、私にしてはかなり力が入っていた。


提出したら返ってきた一言

提出して数時間後、上長からチャットが来た。

「これ、AIで書いたんですか?」

……は?

私の脳内が一瞬真っ白になった。
普段めったに怒らない人間が、心の底からカチンときた瞬間だった。

チャットで少しやり取りしたけど、どうにもモヤモヤが収まらない。
結局、席を立って上長のデスクまで直接行った。

私(かなりトゲのある声で):

「あなたがスコープも前提条件も読者も一切提示せずに『ドキュメント作成して』と言った通りに書いたんですけど、これはあんまりじゃないですか?」

上長は完全に唖然としていた。
明確な返事は返ってこなかった。

後になってポツポツ出てきた言い訳がこれだ。

  • 「関係部署のわかる人だけが見る資料だから、そこまで丁寧に書く必要はなかった」
  • 「ツールの使い方は知っているので、簡単な説明程度でよかった」

……最初から言えよ!

皮肉なことに、AIをフル活用して書いたコード部分は何も言われなかった
自分の手で丁寧に書いたドキュメントだけが「AIっぽい」と疑われた。

これが現実だ。


この一件から私が学んだこと

怒りが冷めて冷静になったあと、私は自分に問いかけた。
なんでこんなことが起きたのか。そして、これはAI時代の本質的な問題を突いているんじゃないか、と。

1. 「AIっぽい」の正体は文体じゃない。その人の普段の解像度と出力のギャップだ

AI検出ツールより、「その人を知っている人間の直感」の方が当たるケースがある。
私の普段の出力解像度を知っている上長が、「こいつがここまで丁寧に書くはずない」と思ったのだろう。
文体がどうこうじゃない。期待値との乖離が「AIっぽい」を生む。

2. 正しい答えが、正しい場で出されているとは限らない

AIは「問いに対する正しい答え」は出せる。
でも「この場で、この関係者に向けて出すべきか」は判断しない。

「来年にはフレームワークが変わるから、今のコードの可読性にこだわっても無駄」と言われて納得するエンジニアはいない。今のコードを今のチームが読むんだから。

3. 「責任を取る」と「検証する」は全く別の行為

  • 検証 → 内容の正しさ(AIでも得意)
  • 責任 → この出力がこの場に適切か(人間にしかできない)

私は後者の責任をしっかり取ろうとしただけなのに、前者の検証で疑われた形になった。

4. AIの影響度は使用量じゃなく「認知の主導権を自分に残しているか」で決まる

MIT Media Labの2025年の研究 "Your Brain on ChatGPT"や、Gerlichの論文 "AI Tools in Society"でも指摘されているように、AIに過度に頼ると認知の負債が溜まる。

逆に言えば、AIをどれだけ使っているかではなく、自分の頭で考える工程を残しているかどうかが分水嶺だ。

5. 個人最適と組織最適は違う

個人ならClaude Opus 4.6をMaxプランでぶん回せばいい。
でも組織にはリソース制約、スキルギャップ、既存プロセスの壁がある。

私もClaude Codeを本気で使いこなせるようになるまで半年かかった
「ゴールデンパス」を書いても、すぐに組織全体が追いつくわけじゃない。

6. コンテキストを渡さない側が、出力の品質を出自で疑う構造が最もヤバい

これが一番の核心。

「このツールのドキュメント作成して」としか言わなかった上長が、「AIで書いたんですか」と疑う。
これはまさに、AIに「〇〇について書いて」と丸投げして「AIっぽい」と文句を言うのと全く同じ構造だ。

コンテキストを渡さない依頼者が、出力のクオリティを「手段」で疑う。
これ、AI時代に一番増えている病だと思う。


それでも私はAIを愛している

この話で一番伝えたいことは、「AIを使うな」じゃないということだ。

むしろ逆。
AIは強力なツールだ。ちゃんと使いこなせば、生産性も品質も爆上がりする。

問題は使い方にある。

  • コンテキストをちゃんと渡せているか
  • 認知の主導権を自分で握り続けているか
  • 出力の「この場への適切さ」を人間が検証しているか

上長も私も、結局同じ穴のムジナだったのかもしれない。
私がコンテキストを聞き出さなかったのも事実だし、上長が期待を言語化しなかったのも事実だ。


今、私がやっていること。

この体験があったから、私は今の職場でAIとの協働ルールを設計している。
「まず自分の考えを持つ。AIにはそれを整理させる」「出す前に、この場への適切さを検証する」——そういったゴールデンパスをチームに共有している。

半年かけてClaude Codeを使いこなせるようになった経験も、全部ドキュメントに残している。
誰かが同じ壁にぶつかった時、少しでも早く乗り越えられるように。

AI時代に本当に必要なのは、技術力じゃなくてコミュニケーションの解像度認知の自立だと思う。

皆さんの職場でも似たようなこと、起きてませんか?

(参考文献)

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?