0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AI業界、ちょっと冷めてきた話 — 4月の動きを見てて「これおかしくない?」って思った5つのこと

0
Last updated at Posted at 2026-04-29

AI業界、すごい盛り上がってる。

自分も日常的にClaude Code触ってるし、生産性上がってる実感もある。だから楽観論側にも立ちたい。

けど最近、なんとなく違和感があって。

4月のニュースを並べて見てたら、「これ、ちょっとおかしくない?」っていう信号が5つくらい見えてきた。書き残しておく。

「インフラ大事」「エージェント来る」「ホワイトカラー脅かされる」みたいな話は飽きた人向け。逆を見る記事です。


1. OpenAIのCFOがCEOに警告してる、っぽい

一発目、これ。

4/28、Fortune が出した記事。OpenAIのCFO、Sarah FriarがCEOのSam Altmanと衝突したって。

CFO Sarah Friarは、データセンター支出が過大で契約に対する収益が追いつかないことを懸念している

両者は「ばかげた話」って公式声明で否定したらしい。けど、否定声明出る時点でちょっと、ね。

CFOって基本「数字を見て冷静にノーと言う人」じゃないですか。技術トップでもプロダクトトップでもなく、お金の番人。それが警鐘鳴らしてるってことは、内部で「このデータセンター投資、回収できなくない?」って計算が出てる、と読むのが自然。

ここで思い出してほしいのが1990年代の通信バブル

1996〜2001年、通信会社は光ファイバー網に5000億ドル投資した。「データ通信は爆発的に伸びる」って前提で。

結果どうなったか:

  • 通信トラフィックは予想通り伸びた
  • でも価格が想定の100分の1に下がった
  • 投資回収できずWorldComもGlobal Crossingも破綻
  • 光ファイバー網は10年間「ダークファイバー」として眠った

これ、AIで同じことが起きる構造ある。推論需要は確実に伸びる。けどLlama系のオープンソースが追いつくたびにAPI料金は限界費用に収束していく。伸びるけど儲からないシナリオ。

CFOがそれを内部で警告し始めてる、というのが信号1つ目。


2. トップAI企業ですら「会社」を維持できてない

次。Mira Murati の Thinking Machines Lab。

元OpenAI CTOの Mira Murati が立ち上げて、すごい注目されたスタートアップ。Nvidiaが投資して、4/22にはGoogle Cloudと数十億ドル契約結んだ。普通に成功してるように見える。

けど共同創業者の流出がエグい:

  • Meta に5名移籍(うち1人は$1.5B / 6年契約)
  • OpenAI に3名復帰
  • xAI に1名移籍

会社設立から1年で創業チームが空中分解してる。

普通のスタートアップなら、これは会社終わったサイン。でもThinking Machinesはまだ動いてる。Google Cloudもインフラ契約結んでくれる。Nvidiaも投資し続けてる。

これ見て自分が思ったのは、「会社」っていう単位がもう機能してないんじゃない? ってこと。

個人一人にMetaが$1.5B出す。会社の評価額より個人の値段が高い。投資家は「会社」じゃなくて「」と「インフラ契約」に賭けてる。

エンジニア視点で言うと、これけっこう重い話で:

  • 会社にロイヤリティ持つメリット、薄れてきてる
  • 自分の市場価値(実績、ネットワーク、フォロワー)が会社の肩書を超え始めてる
  • 「優秀な人がいる会社にいる」じゃなくて「自分が優秀な人と組める」が問われる

会社の境界線が壊れてる感じ、現場でも感じない?


3. Microsoft が OpenAI 独占を手放した、本当の理由

4月、MicrosoftとOpenAIの契約が改定されて、OpenAIがAWSとかでも提供できるようになった。

公式の建て付けは「OpenAIの選択肢を増やすため」みたいな前向きな話。

でも自分は「いやいや、Microsoft 側が手放したくなったんちゃう?」って疑ってる。

仮説、3つあると思う:

  1. 規模の限界:OpenAIの計算需要がでかすぎて、Microsoft単独じゃ無理になった
  2. リスク分散:MicrosoftもOpenAI破綻シナリオを視野に入れて、依存度下げたい
  3. 規制対策:独禁法・反トラスト法の規制強化を見越した予防的措置

どれが正解か(あるいは全部か)は知らない。けど、テック大手の同盟関係が組み替わってるのは確か。

これ、エンジニアの設計判断にも効いてくる。

特定のクラウド・モデル・フレームワークにロックインされる設計、たぶんもうリスク高い。

抽象化レイヤー(LangChainでもLlamaIndexでも自前でも)噛ませて、いつでもプロバイダ切り替えられるようにしておく方がいい。3年前なら「過剰設計」って怒られたけど、今は「ベンダー切り替え前提」がまともな判断になってきた。


4. CEOたちが「労働者は不要」と公然と言い始めた

これも信号だと思う。

4月の発言を並べると:

  • Aravind Srinivas(Perplexity CEO):「人々は仕事を楽しんでいない、AIで解放される」
  • Amjad Masad(Replit CEO):「金目当てでCS専攻はバカ」
  • Sam Altman:(過去)「AGIで人間労働の意味が変わる」

言ってること、半分わかる。自分もコード書く部分はAIに任せたい派なので、共感する部分はある。

けどさ、CEOが投資家向けに「人件費が消える=利益率上がる」を匂わせる発言を公然とするのは、社会的反発の伏線にもなる。

これ、2008年の金融危機前を思い出す。ウォール街の偉い人たちが「リスク管理は完璧」って公然と言ってた。崩壊してから「お前らふざけんな」って規制強化が来て、Dodd-Frank法とか出てきた。

AIも同じ流れになる気がしてる:

  1. AIによる雇用喪失が実際に起きる
  2. 社会的・政治的反発が広がる
  3. 規制が強化される(EU AI法を超えるレベル)
  4. AI企業の自由度が一気に下がる

エンジニア視点で重要なのは、規制強化シナリオを織り込んだプロダクト設計ができる人が希少になる、ってこと。

「規制で何ができなくなるか」を予測してアーキテクチャ組める人、ここ2〜3年で値段上がると思う。


5. エージェントの「責任の所在」がまだ無い

4/24、Anthropicが「Claudeに購買・販売・交渉を任せた」実験を公開してた。

すごい。人間介入なしで取引完了

けど、ちょっと待ってほしい。

もしClaudeが間違って大量発注したら、誰が責任取るのか?

  • 運用者(社員)?
  • Anthropic?
  • モデル提供者?
  • 取引相手(騙された側)?

答え、現時点で法律にない

dharmesh(HubSpot CTO)が4/23に投稿してた話が象徴的:

「エージェントがSusanの給与を上げる議論を見て、勝手に給与システムにアクセスしてはいけない」

これ、法的責任以前にエージェントの権限設計が業界標準として存在しないことを示してる。

具体的にまだ決まってない論点:

  • エージェントに渡す権限の最小化(読み取り?書き込み?金銭の移動?)
  • 承認フロー(毎回人間か、金額閾値か)
  • 監査ログ(プロンプト・出力・ツール呼び出し全部)
  • 失敗時の責任分配

これ全部、2027〜2028年頃には標準化されると思う。けどそれまでの過渡期は事故が起きる。誤発注、誤決済、情報漏洩。

そして事故が起きると、4で言った社会的反発が加速する。


5つ揃って起きたら何が起きるか

ここまで5つ並べた:

  1. CFOの警告(インフラ投資の回収不能リスク)
  2. 創業チームの空中分解(会社の境界線崩壊)
  3. テック大手の同盟組み替え
  4. CEOの「労働者不要」発言と社会的反発の予感
  5. エージェントの法的責任不在

各信号は単独だと「まあそういうこともあるよね」レベル。けど5つが連鎖したら:

  • AI企業の財務悪化
  • 一部企業の機能不全・破綻
  • 社会的反発による規制強化
  • エージェント事故による信頼低下
  • AI関連株の急落

つまり短期的な調整局面が来る可能性がある。

ただ強調したいのは、これは「AI業界が消える」という意味じゃない。

通信バブル後もインターネットは普及し続けたし、ドットコムバブル後も多くのサービスが定着した。

ブームの調整と技術の普及は別の話

AIも同じ道をたどる可能性が高い。盛り上がりが冷めても、技術自体は使われ続ける。


自分はどうしてるか

正直、自分は楽観側に振りたい。

Claude Code触ってると生産性が明らかに上がってる。エージェント設計の経験積めば3年後に効くと思う。AIネイティブなプロダクト作ってる人たちが羨ましい。

けど一方で、上の5つの信号もちゃんと見ておきたい。

なので両側に少しずつ賭けてる:

楽観側の準備

  • Claude Code、Cursor、エージェント設計のスキル積み上げ
  • ワークフロー自動化の業務経験
  • AIネイティブのプロダクト触る

悲観側の準備

  • 権限設計・監査ログ・コンプライアンスの知識
  • 特定モデル・特定クラウドに依存しない設計力
  • AIに代替されない領域(判断、責任、対人協調)の経験
  • 副業・転職の選択肢を常に開けておく

どっちかに全振りしないのが、たぶん一番堅い。


締め:CEO発言を「仕分け」するクセをつけてほしい

この記事の元ネタは全部、CEOの発言と業界ニュース

注意してほしいのは、CEOの発言は基本的にポジショントークってこと。

  • Aravindの「iPhoneはAIで重要」→ Perplexity Mobileの収益軸
  • Levieの「ラストマイルは人間」→ Box Automateの差別化文脈
  • Altmanの「AGI実現が近い」→ 資金調達のための煽り

ぜんぶ嘘ではない。でも話してる側にとって都合のいい角度で切り取られてる。

逆に、表に出にくい信号もある。CFOの内部衝突、創業チームの流出、契約関係の組み替え——これらは地味だけど構造を語る

明日からCEO発言を見るとき、「これは投資家向けポジトーク」「これは内部からの本音」で仕分けしてみてほしい。

結構面白いから。

そして、楽観論にも悲観論にも振りすぎない。両側に少しずつ準備しておく。

それが、こういう時代を生き抜くエンジニアとしての賢い動き方だと思ってる。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?