1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【2026年版】上流工程すら奪われそうなので、AIが代替できないIT企業の価値を考える

Last updated at Posted at 2026-01-27

はじめに

この記事は「AIがすごい」話というより、
「AIがすごすぎて、エンジニアの価値の置き場所が動いてる」話です。

結論だけ先に言うと、現時点でいちばん代替しにくい価値は
「会社として成果物に責任を負うこと」 なんじゃないか、という話になります。

※ここで言うAIは、コード補完だけじゃなく、仕様から実装・テストまで回すような
AIエージェントや、仕様駆動開発っぽい流れまで含めます。

逆に、法務・契約の細かい話を深掘りする記事ではないです
(そこはちゃんと専門の人が強い)。

2025年 前半の自分は「価値は上流に集約される」と思ってた

2025年の春ごろまでは、
「コーディングやテストはAIに寄って、価値は上流工程に集約されていく」
という見方をしていました。

要件を整理し、関係者と合意を取り、設計上の意思決定をする。
そこは人間の仕事として残るだろう、という感覚です。

正直に言うと、
「まあ、上流は人間の仕事でしょ」
という、どこか安心した前提を置いていました。

2025年 後半、上流も普通に脅かされ始めた

ところが2025年の後半、仕様駆動開発(Spec Driven Development)が登場し、

specを軸にAIが実装・テストまで回していく開発により、
「上流すら形式化できる部分から食われる」流れになりました。

ここで重要なのは、上流工程の成果物にも、結局「形式」がある、ということです。

要件の整理、仕様の文章化、タスク分解、非機能要件の洗い出し、設計方針の候補出し。
こういう「形にできるもの」はAIの得意分野です。

つまり、
「上流は完全に人間の仕事」と考えるのは早計で、
上流工程も、型に落ちる部分から順にAIに寄っていくのが自然な流れだったわけです。

というか「上流・コンサル寄りで生き残ればいい」も簡単ではない

そもそも、これで全員が食べていけるかというと、かなり厳しいです。

上流側は混み合うし、
その上流アウトプット自体もAIで量産可能になっていくことで
結果的に椅子取りゲームが始まります。

さらに厄介なのは、
上流の価値は「正しい提案」を出すだけでは決まらない点 です。

現場には事情があり、予算があり、政治があり、過去の経緯があり、
本当に難しいのは、「正解」を出すことより、
この状況で前に進む形へ落とすこと、だったりします。
そこに加えて、AIは 「それっぽい正解」 を出すのがとても得意です。

結果として、おおまかな資料作成や整理はAIに寄り、
上流・コンサル的な強みだけで逃げ切るのは難しいと考えました。

一方で、最終的に評価・採点するのが人間である以上、
AIのアウトプットが、100点であるかをAIは採点できません。

そのため、真の意味での上流工程の価値を提供できる人間であれば
上流・コンサル寄りで価値を出し続ける余地は残っています。

ただしそれは、
従来イメージされてきた「上流工程」よりも、
かなり属人的で再現性の低い役割になります。

じゃあ、AIに代替できない価値って何なんだろう?

いろいろ考えた結果、
かなりシンプルな答えに行き着きました。

それは、
会社として、プログラムやシステムに責任を負うこと です。

もちろん「責任だけ」を価値にするわけではありません。
顧客から見ると、責任を負うこと自体は差別化ではなく、取引の前提条件ですので。

「うちは責任を取ります」と言っても、評価される強みというより、
「それは当然では?」と思われてしまいます。

ここで言いたいのは

  • 障害が起きたとき、誰が顧客に説明するのか
  • 復旧方針や優先順位を誰が決めるのか
  • 再発防止を誰の名義で約束するのか
  • 損害が出た場合、契約上どう扱うのか
  • セキュリティ事故時に、誰が対外対応の意思決定をするのか

など、こうした
「動かし続ける責任」、「壊れたときに説明する責任」、「最終的に引き受ける責任」
のことを指しています。

AIが「これらを全面的に責任を持ちます!」と言い出したら話は変わりますが、

自動運転の導入障壁が、必ずしも技術的側面 だけではないように
責任は、法的主体や契約、信用といった社会的な仕組みの上にあるため
少なくとも今の延長線では、
AIが賢くなっても責任主体にはなりにくいと考えています。

だから、AIが開発の中心に寄るほど、
IT企業に残る価値は
「成果物に対して責任を引き受けられること」 になっていくと考えました。

正直、嫌なババだけ残ってない?という気持ちもある

ここは少し本音です。
コーディングや要件を詰める作業はしんどい瞬間もありますが、
動かして改善していく、手触りがあって楽しい部分でもあります。

そこをAIがどんどん肩代わりしていくと、
人間側に残りがちなのが、
判断、レビュー、調整、説明、そして責任、みたいなしんどい側になりやすいので

楽しいところはAIに寄って、最後に責任だけ残る構図だと、
正直、あまり気分がいいものではありません。

とはいえ、
価値がそこに集約されるなら、
向き合わざるを得ない、というのも事実ですが。

さいごに補足

この記事は、あくまで一社員としての個人的な考えを2026年1月時点で整理したものです。
所属している会社が、この考え方を
公式な方針やモットーとして掲げているわけではありません。

現場でAIと向き合いながら感じたことを、
一つの視点としてまとめたものだと受け取っていただければ幸いです。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?