この記事のきっかけ
最近、技術コミュニティで非常に示唆に富んだ議論が注目を集めています。
きっかけは 「もうプログラマーになりたくない(AIと妻に論破されて)」 というタイトルの記事でした。この記事が提示した、AI時代のエンジニアが直面する新たな苦悩について、先日GIFTechの対談企画でお話を伺ったiwashiさん(https://x.com/iwashi86) ※対談記事は近日公開予定)も、ご自身のメモとしてXで取り上げていました。
- 専門家の仕事は、もはや単なる実務ではなく、AIが出す即席の回答に対して、なぜ専門的な判断が重要なのかを説得する作業になっている
- これからの時代に唯一残る本当の通貨は、疑いと判断力といった「知恵」である
この議論、確かにそうだよなと。AIは瞬時に自信満々な答えを出すのに、人間の専門家は「でも実際はこういう理由で...」と説明に時間をかけなければならない。この 説得と説明のプロセスが「人間がボトルネック」 と見なされる時代に、私たち人間は一体何をすべきなんだろう。そんなモヤモヤを言語化したくて、この記事を書いてみることにしました。
「人間がボトルネック」という現実
もはや、タスクの実行速度において人間がAIに勝つことはできません。
仕様書を渡せば、AIは驚くべき速度でコードを生成します。膨大なデータを渡せば、瞬時に分析レポートを作成します。私たちが数日かけて行っていた作業を、AIは数分で終えてしまいます。
そして今、AIは私たちのレビューや指示を「待って」います。この状況は、人間がAIの性能を最大限に引き出す上での制約、すなわち「ボトルネック」であることを示唆しています。
「AIへの全面的な権限移譲」という幻想
この問題への最も安易な解決策は、AIにさらに多くの権限を移譲し、人間の介在を減らすことです。しかし、それは極めて危険な幻想です。
なぜなら、元記事が指摘し、多くの専門家が同意するように、AIが持つのは膨大な「知識」であり、人間が持つべきは「知恵」だからです。両者は似て非なるものです。
- 知識(Knowledge): 過去のデータに基づくパターン認識、情報検索、確率的な予測。
- 知恵(Wisdom): 文脈の理解、言語化されていないリスクの察知、倫理的な判断、そして 「そもそも、その目的は正しいのか?」と前提を疑う力。
AIは与えられた問いに対して最適な「答え(How)」を出すことはできますが、その問い自体が正しいか(Why)を問うことはできません。ここにこそ、人間が介在すべき核心的な価値が残されています。
我々がAIに「待った」をかけるべき3つの瞬間
「人間がボトルネック」なのではなく、「人間が介入すべきチェックポイント」と捉え直す。そのために、私たちがAIの猛烈なスピードに対して、勇気を持って「待った」をかけるべき3つの瞬間を提言します。
1. 目的(Why)を定義し、疑う瞬間
AIは、設定されたゴールに向かって最短距離で突き進むことに最適化されています。しかし、そのゴール設定が間違っていた場合、AIは驚異的なスピードで、誰も望まない完璧な「失敗作」を生み出してしまいます。
人間の役割:
AIに実装を指示する前に、「そもそも、我々は何を解決しようとしているのか?」「この機能は、本当にユーザーの課題を解決するのか?」という 目的(Why) を徹底的に言語化し、チームで合意形成すること。時には、AIが提案した効率的な手段に対して、「それは我々の目的に沿っていない」と却下する判断も必要になります。
2. 文脈(Context)を読み、翻訳する瞬間
AIが生成するソリューションは、ドキュメント化された情報には強いですが、そこには書かれていない、人間組織特有の「空気」や「歴史」といった生々しい文脈が抜け落ちています。
人間の役割:
AIの合理的な提案を、自分たちが置かれている 現実の人間的・組織的文脈に「翻訳」 すること。
- 「その美しいアーキテクチャは技術的には可能ですが、チームのAさんが過去にその技術で大きな失敗をしており、導入に強い抵抗感があります。彼のモチベーションを考慮すると、別の選択肢を探すべきです」
- 「その機能の全面リファクタリングは理想的ですが、役員会で『来期にそのサービス自体を縮小する』という非公式な話が出ています。今は最小限の修正に留めるべきです」
このような、ドキュメントには決して書かれない、人間関係や組織の力学、未確定な未来といった定性的な情報を読み解き、最適な判断へと導く「翻訳」と説明責任こそ、専門家であるエンジニアにしかできない仕事です。
3. リスク(What if)を想像し、判断する瞬間
AIの「知識」は過去のデータに基づいています。過去に前例のないリスクや、複数の事象が連鎖して起こる複雑な障害を予測することはできません。
人間の役割:
経験と想像力を働かせ、「もし、この機能が悪用されたら?」「もし、このライブラリに未知の脆弱性があったら?」といったリスク(What if)を想像し、トレードオフを「判断」 すること。AIが出した「99%安全です」という確率論に対し、「残りの1%が起きたら事業が終わる」とブレーキを踏むのが、人間の「知恵」です。
結論:あなたの価値は「問いの連鎖」を生み出せるかにある
AI時代における人間の価値を、単純な「0→1」で語るのは、本質を見誤るかもしれません。
なぜなら、優れたプロンプトさえあれば、AIもまた無数のアイデアという「1」を生成できるからです。
では、人間にしかできないこととは何か?
それは、一つの答えに満足せず、「問いの連鎖」を紡ぎ出すことです。
AIは優れた 「答えを生成する装置」 ですが、人間は本質的に 「答えに満足しない存在」 です。
どんなに精緻な答えが出ても、
- 「本当にそうか?」
- 「なぜそう言えるのか?」
- 「別の視点はないか?」
と問い直す。AIが生成した「1」を、再び「0」に戻して問い直す力——この往復運動こそが、人間ならではの「知恵」です。
たとえば、AIに「EC市場の課題」を分析させれば、データに基づいた改善案が瞬時に返ってきます。
しかし、そこで立ち止まり、「そもそも、なぜ人は"買う"という行為に時間を費やすのか? と問い直せるのは人間だけです。
この一段深い問いから、「購買体験の再定義」という全く新しい価値の地平が開けるかもしれません。
AIに「待たせる」時間は、非効率な時間ではありません。
それは、AIの答えを起点に、より深く、より本質的な問いへと潜っていく、最も価値のある時間です。
私たちの仕事は、AIと速さを競うことではありません。AIが差し出した答えを、新たな問いへの入口として、問いの連鎖を創り続けること。それこそが、AI時代におけるわたしたちにしかできない役割だと信じます。