47
21

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

「詰まる人」が評価される——AIが速くなるほど、技術者に残る仕事の正体

47
Posted at

生成AIがコードを書き、設計のたたき台を出し、テストやドキュメントまで整えてくれる。そんな時代に、「技術者の仕事はAIに奪われるのでは」と感じる方もいるかもしれません。しかしログミーBusinessの対談「AIが当たり前の時代、人間の価値はどこに残るのか 仕事を詰まらせる"ボトルネック"の正体」では、むしろAIの性能が上がるほど、人間にしかできない「詰まり」の部分がより重要になるという論点が語られています。ITの現場では、もうすでにその変化が起き始めています。本稿では、この論点をIT技術者の視点で噛み砕き、対談ではなく読み物として、何が起きているのか・何を大切にすればよいかを整理します。

関連する視点として、AIは仕事を奪うのか——IT技術者が今、本当に考えるべきことでは「奪う」より「役割が変わる」を、AIでラクになるはずがなぜか忙しい——IT技術者が自分事として考える「仕事が増えるAI活用」ではAI導入で忙しくなるメカニズムを、AI時代に生き残る技術者のTasteとは何かでは評価とレビューの力について扱っています。あわせて読んでいただくと、AI時代の技術者像がよりはっきりします。


「作れる」から「見抜ける」へ——いま、差がつくのはどっちか

以前の開発現場では、仕様を読む、設計する、コードを書く、テストを書く、ドキュメントを書く——この一連の作業のうち、かなりの部分を人間が手でやっていました。いまは、生成AIがかなりの速度でその多くを支援してくれます。

すると何が起きるか。問題の中心が、「作れるか」から「大量に出てきた成果物を、誰が、どう見極めるか」へ移っているのです。

たとえば生成AIに、APIサーバーを作って、Reactの画面も作って、テストコードも書いて、READMEも整えて、エラーハンドリングも追加して——と依頼すると、以前よりはるかに速く「それっぽいもの」が出てきます。その後に必要なのは、次のような作業です。

  • そのコードは本当に要件を満たしているか
  • セキュリティ上まずい実装はないか
  • 例外系が漏れていないか
  • 将来の保守性はあるか
  • 既存アーキテクチャに整合しているか
  • 性能劣化やコスト増大を起こさないか
  • 監査や運用に耐えられるか

ここは結局、まだ人間の責任です。つまり、AI時代の現場では、「作る能力」以上に「見抜く能力」 が差になります。コードレビューも、以前の「仲間のコードを確認する」行為から、「AIが量産した成果物を、短時間で正しく評価する」 という色合いがどんどん強くなっていく、と考えると実感に近いと思います。

では、その「見抜く」側に時間がかかってしまうと、どうなるか。対談では、そこにこそ本当のボトルネックがある、という指摘がありました。


遅いのはAIじゃない。「詰まっている」のは人間の側

ログミーの対談では、「人間が仕事を進める上でのボトルネックになっている」 という指摘がありました。AIに大量の成果物を作らせられるようになったいま、大量に作られた成果物をいかに早くチェックできるかが、その人の進み方を左右する。そこに時間がかかってしまうと、もはや人間の側がボトルネックになっている、という感覚です。

言い換えると、「部下としてAIを使う」という認識よりも、自分で詰まらせているから、「早く出さなきゃ」という認識でAIを使うほうが、現場の実態に合っている、という話です。AIは待ってくれません。出てきたものを止めるのも、流すのも、人間の判断です。だからこそ、見極めの速度と精度が、技術者としての価値に直結していきます。

そうなると、もう一つの問いが浮かびます。いまの技術者に、本当に足りなくなるのは何か。


「書ける人」から「任せられる人」へ——実装だけでは足りなくなる理由

「AIにプログラムやコードを全部書かせられるようになっている」——対談のこの一言は、やや極端に聞こえるかもしれませんが、実務感覚としてはかなり本質を突いています。

実際、いまのAIは次のようなものを、かなりの精度で出せます。

  • CRUDアプリの雛形
  • SQLの生成
  • 単体テストの叩き台
  • OpenAPI仕様からのコード生成補助
  • TerraformやDockerfileの初稿
  • ログ整備やリファクタリング案
  • 障害原因の仮説整理

つまり、実装の初速は大幅に上がっています。そのため、技術者の価値は「ゼロから全部書けること」だけでは測れなくなります。

むしろ重要になるのは、問題設定が正しいかAIへの指示が適切か出力結果を批判的に読めるかどこを信用し、どこを疑うべきか分かるか技術的負債を早期に見抜けるか、といった点です。IT技術者っぽく言えば、実装者中心の価値から、設計者・査読者・意思決定者としての価値へ重心が移るということです。コードを書く力は依然として重要ですが、もはや単独では十分条件ではありません。

では、何をAIに任せ、何を人間が担うか——その線引きを、どう考えればよいでしょうか。対談では、ここにもヒントがありました。


楽をするためじゃない。重い判断に集中するためにAIを使う

対談のなかには「脳が疲れることはAIに任せればいい」という趣旨の発言があります。これを雑に受け取ると危険ですが、IT技術者向けに整理すると意味は明確です。

AIに任せやすい仕事の例は、次のようなものです。定型コードの生成、ドキュメントのたたき台作成、テストケース候補の列挙、ログ解析の初期整理、バグ原因の候補出し、会議メモの整理、既存コードの説明文生成、FAQや運用手順書の下書き——いずれも、パターンがはっきりしていて、失敗時の影響が限定しやすい領域です。

一方で、人間が強く関わるべき仕事は、要件の曖昧さを解消する、関係者の利害を調整する、トレードオフを決める、本番影響を判断する、セキュリティ・法務・監査を踏まえて止める、障害時に責任を持って意思決定する、ユーザー体験として本当に妥当か考える——といったものです。

つまり「全部AIに任せよう」ではなく、人間の認知資源を、より高い判断に集中させるためにAIを使うという理解が適切です。楽をするためではなく、より重い判断へ人間を寄せるためにAIを使う、という発想が本質になります。

その「重い判断」や「適切な指示」を、AIに伝えるとき——ここで効いてくるのが、意外かもしれませんが言葉の力です。


「いい感じにして」では伝わらない——技術者の言語化が武器になる理由

対談の前半には、「言葉遊びができる文系の人が強くなる」「表現者の時代が来る」という話があります。IT技術者からすると、少しふわっと見えるかもしれません。しかし実は、AIへの指示の質という意味で、かなり実務的な話です。

なぜならAIは、曖昧な意図を言葉で外部化する能力に強く依存するからです。同じ開発課題でも、AIへの依頼の仕方で結果はかなり変わります。

たとえば「このAPI直して」「いい感じにして」「セキュアにして」では、AIは当たり障りのない答えを返しがちです。一方で、「認証済みユーザーのみ利用可能にする」「RBACはadmin/editor/viewerの3種」「既存のJWTミドルウェアを流用」「レスポンス形式は現行互換」「監査ログを残す」「SQLインジェクション、IDOR、過剰権限に注意」「pytestで正常系/権限なし/存在しないIDの異常系を追加」——のように、条件と文脈を渡せると、出てくる成果物の質が変わります。

ここで必要なのは、単なる日本語力ではありません。抽象化する力条件を切り出す力文脈を渡す力相手に伝わる形に再構成する力です。これはまさに、対談でいう「表現の力」に近いものです。AI時代は、IT技術者にとっても言語化能力がコアスキルになる、という意味で受け止めるとよいでしょう。プロンプト力という軽い言い方より、要件整理・抽象化・構造化の力が問われる、と考えておくと実務に直結します。

一方で、AIに「どう振る舞わせるか」を設計する側に立つとき、別の問いが立ち上がります。AIは本当に中立なのか、という話です。


中立なAIはいない——設計者が決める「どこまで偏らせるか」

対談では、「AIに人格を持たせるほど偏る」という話も出ています。これは、AIをプロダクトとして設計するIT技術者には、かなり重要な論点です。

AIシステムは、完全に中立ではありません。実際には、学習データの偏り、システムプロンプト、ガードレール設計、評価指標、RLHFやポリシー調整、提供企業の思想、ユースケースごとの制約——どこかに価値判断が埋め込まれます。

たとえば社内AIアシスタントを作るとしても、厳格にコンプラ重視にするのか、速度重視で多少自由度を持たせるのか、保守的に答えさせるのか、提案型にするのか、で利用体験は大きく変わります。つまりAIの「人格」は、技術的にはチューニングされた振る舞いの集合です。その人格が強すぎると、特定の観点しか出さない、柔軟な提案ができない、現場判断に不向きになる、利用者の思考を逆に狭める、といった問題が出ます。

教育、医療、金融、行政のような領域では特に、AIにどの程度の価値判断を埋め込むのかが設計責任になります。中立なAIは存在しない、という前提で設計することが大切です。

では、人間にしかできない判断とは、具体的に何か。対談では、ここで「身体性」という言葉が出てきます。ITの現場の言葉に引き寄せると、こういうことです。


ログには出ない「現場の温度」——AIにできない、人間の判断

対談では、人間とAIの大きな違いとして身体性が挙げられています。これをIT技術者向けに言い換えると、AIは世界を「記号として扱う」が、人間は世界を「経験として持つ」 ということです。

たとえば障害対応でも違いが出ます。AIは、ログ、メトリクス、手順書、過去インシデント、一般的ベストプラクティスから、かなり優れた分析を返せます。しかし人間はそれに加えて、現場の緊張感、顧客の怒りの温度、チームの疲弊、組織の力学、「今は正論より止血が先」という感覚、「この担当者は今かなり危ない」という察知——のような、数値化しにくい状況を含めて判断します。この差が、身体性に近いものです。

ITの仕事は論理だけで完結しているようで、実際には顧客折衝、障害時の説明責任、組織内合意、仕様変更時の温度感、チームビルディングのように、人間の感覚が大きく入る領域がたくさんあります。AIが優秀になっても、技術者の現場感覚はむしろ価値が上がる可能性があります。

「いつかAGIが来る」という議論も、対談では触れられています。ただ、今日の設計と運用を考えるうえでは、別の問いのほうが先です。


AGIを待たない。いまのAIで、責任の線を引く

対談の後半では、AGIやASI、Transformerの限界可能性などの話が出てきます。これはおもしろい論点ですが、実務のIT技術者として大切なのは、過度に未来予測へ振り回されないことです。

現場ではまず、いまのAIで何が十分に実用かどの工程が一番効率化できるか逆にどこはまだ危険か検証コストはどれくらいか人間の責任分界点をどう置くか——といった問いのほうが重要です。

いまのAIは、AGIではなくても十分に強力です。L1サポートの回答補助、社内ナレッジ検索、ソースコード理解補助、テスト作成支援、障害報告書の下書き、非エンジニア向け説明文の作成——こうした用途では、すでに業務インパクトがあります。AGIを待つより、現時点での運用設計・責任設計・評価設計のほうが重要、というスタンスでよいと思います。

ここまで、対談の論点をIT技術者の視点で引き寄せてきました。最後に、「詰まり」が価値になるという一文を、具体的に何に落とし込めばよいか、六つにまとめます。


まとめ——「書く手」より「決める頭」に価値が移る、の本当の意味

AIは、技術者の仕事を奪うというより、仕事の重心をずらしているという理解が大切です。昔は「正しく作れる人」が強かった。これからは 「何を作るべきかを定義し、AIが作ったものを見抜き、責任を持って運用に載せられる人」 が強くなります。

この対談と、IT現場の実感を合わせて整理すると、技術者が実際に学び・伸ばすべきは次の六点です。

レビュー能力の重要性

生成速度ではなく、見極め速度と精度が価値になる。AIを使うほど、レビュー能力が重要になる。

言語化能力は技術力の一部

プロンプト力というより、要件整理・抽象化・構造化の力が問われる。

認知資源の再配分が本質

単純作業の削減ではなく、より重い判断へ人間を寄せるためにAIを使う。

責任主体は人間に残る

特に本番運用、セキュリティ、法令順守、説明責任は人間側に残る。AIは便利でも責任主体にはなれない。

中立なAIは存在しない前提で設計する

AIの出力は、モデル、ルール、企業方針、評価設計に左右される。

価値は「書く手」より「決める頭」に寄る

何を作るか、なぜ作るか、どこで止めるか、どのリスクを受け入れるかが本丸になる。設計力、批判的思考、レビュー力、文脈理解、意思決定力、説明責任を果たす力が、AI時代のIT技術者に求められます。


AIの性能が上がるほど、技術者の仕事は減るのではなく、「人間にしかできない詰まり」の部分がより重要になる——この一文を、日々の設計・レビュー・意思決定のなかで思い出していただければ幸いです。


作成日:2026年3月9日

47
21
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
47
21

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?