1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Google は世界有数のハードウェアメーカー!? 検索の会社がなぜハードウェアまで内製するのかを探る

Posted at

image.png

はじめに

「Google は世界でも有数の“ハードウェアメーカー”だが、自社向けにしか使わないため市場シェアには現れない」ちょっと前(GCPがまだGoogle Cloud ではなくGoogle Cloud Platform と呼ばれていたころ)に Google の営業さんから聞いた話ですが――本稿はこの仮説を、一次情報と技術史から検証します。
あわせて、なぜ検索エンジン企業がハードウェアに踏み込んだのかeスポーツで評価される低レイテンシの背景米国での独禁法裁判(Chrome を手放すのか?)の最新状況を、エグゼクティブにも伝わる構造化でまとめます。


1.Googleの強さと考え方

  • Google は「倉庫規模コンピュータ(WSC)」の思想で、サーバー/ラック/ネットワーク/チップまで“面で最適化”することで、TCO・電力・レイテンシを同時に最適化してきた。このため、外販の“売上シェア”には出ないが、台数規模は世界有数の調達/設計勢力に属する(ハイパースケールカテゴリ)。(pages.cs.wisc.edu, Google Cloud, TrendForce)
  • バックボーンの太さは業界最大級。点ではなく“面”で閉域に近い経路を保つ Premium Tier、“約200超のエッジロケーション”、“200万マイル超の点灯済みファイバ/33本の海底ケーブル投資”が低ジッタ/低損失経路を支える。(Google Cloud)
  • eスポーツ/対戦ゲームでは、GCP Premium Tier でレイテンシが5〜10%改善した事例が公式に公開されている(Game Insight『Guns of Boom』)。(Google Cloud)
  • 米国独禁法訴訟(2025年9月)では、Chrome の売却命令は回避。一方で独占的“排他契約”は制限一部検索データの共有を義務化(監督委員会付き)などの行動是正が命じられた。(opb)

2.元々検索の会社がなぜハードウェアまで作るのか

2-1.物理限界と TCO 最適化

 TCO:総所有コスト(Total Cost of Ownership)

  • WSC(Warehouse-Scale Computer)=「データセンター全体を1台の計算機として設計」する発想。個々のサーバーより全体最適のほうがコスト/電力/信頼性/レイテンシで有利。(pages.cs.wisc.edu)

2-2.ソフト/ハード協調最適化

  • TPU(AI処理専用チップ、ASIC)はGPUよりさらにAIに特化、推論/学習で桁違いの性能/電力効率を実現し、サービス体験とコストに直結。チップ→ネット→ラック→オーケストレーションまで同時最適できるのは内製の強み。(Stanford University, arXiv)

2-3.電力・冷却・電源系の革新

  • 48V ラック/UPS(無停電電源装置) を含む電源アーキテクチャスケールで実運用。機械学習等の高電力ワークロードに合わせ、ラック/配電を含めてチューニング。(Google Cloud)

2-4.ネットワークを“製品”としてつくる

2-5.サプライチェーン/地政学リスク対応

  • ハイパースケーラー向け“ODM(Original Design Manufacturing、一貫した製造請負) Direct”という巨大カテゴリが増加。Google などの自社設計+ODM生産は一般市場シェアに出にくいが、実出荷は世界サーバー市場の中核を占める潮流。(my.idc.com, TrendForce)

3.「世界有数の“つくる”会社」の根拠(エビデンス)

  • 内部ネットワークの10年スパン改善(Jupiter Evolving)帯域5倍/設備投資30%/電力41%削減等、光回路スイッチ+SDNでの生産レベル最適化を公表。(research.google, Stanford University)
  • 広域 SDN(B4)自社アプリ〜サーバ〜LAN〜WANまで制御した“の最適化で、従来のオーバープロビジョニング依存を刷新。(コンピュータサイエンス, research.google)
  • 電源アーキテクチャの標準化(OCP 参加):48V ラック設計を“スケール導入”した実運用を公開。(Google Cloud)
  • AI アクセラレータの世代更新(TPU v1→v4→Ironwood ほか)推論/学習のクラウド実運用光スイッチによる大規模結合を査読論文/公式ブログで明示。(arXiv, blog.google)

※「外販の市場シェア」では見えにくいものの、“台数×スケール”の実態はハイパースケールの中核に位置しています。ODM Direct の伸びを示すデータが根拠と言えるでしょう。(my.idc.com, TrendForce)


4.バックボーンの太さと低レイテンシ(eスポーツ視点)

  • Premium TierGoogle の低レイテンシで信頼性の高いグローバルネットワークでトラフィックを搬送。一般インターネット経路よりジッタ/損失/遅延の振れが小さい設計。(Google Cloud)
  • エッジ/海底/ファイバ規模:“約202のエッジロケーション”+“33本の海底ケーブル投資”+“点灯済みファイバ約200万マイル”を公開。42リージョン/127ゾーンの到達性も示す。(Google Cloud, blog.google)
  • 実測ベースの事例Game InsightPremium Tier 採用でレイテンシ5〜10%改善グローバルな対戦/配信を支えると報告。FACEITGKE展開速度/安定性/コストを改善。(Google Cloud)

5.ケースで学ぶ

5-1.事例

  • Guns of Boom(Game Insight)Premium Tier で5〜10%遅延短縮ゼロダウンタイム移行Sustained Use などで最大約20%コスト削減。(Google Cloud)

5-2.原理

  • “自前の広域+エッジ”にワークロードを“合わせる”(経路制御/Anycast/エッジ終端/グローバルLB)ことで、対戦の公平性(ジッタ抑制)と開発者の運用負荷を同時に下げる。(Google Cloud)

5-3.設計指針

  • Premium Tier+GKE/Compute Engine+Global LB+Cloud CDNを基本線に、リージョン/ゾーン分散観測(Operations)を初手で整える。(Google Cloud)

6.最新の規制動向:Chrome は手放さずに済むか

  • 2025/9/2 付近の連邦地裁判断Chrome/Android の分離・売却は不要。一方で独占的“排他契約”の禁止特定の検索データの第三者共有(監督付き/広告データは除外)などの行動是正を命令。“デフォルト有償設定”自体は全面禁止にならず。(opb)
  • 示唆構造分離(売却)を回避したため、Google 側のネットワーク/ハード/ソフトの垂直最適化は継続可能。一方、データ共有の設計とプライバシー配慮が新しい実務ハードルに。(opb)

7.今後の戦略シナリオ(2026〜2028)

  1. 低レイテンシ“面”の外販拡大Cloud WAN/Partner Edge/Private Service Connectの組み合わせで企業 WAN のクラウド内包を推進。Google 自前ネットの“商品化”が進む。(blog.google)
  2. 推論特化ハードのクラウド提供Ironwood(推論世代 TPU)をクラウド規模で提供大規模推論の単価/遅延を押し下げる。(blog.google)
  3. 規制準拠アーキテクチャデータ共有+プライバシー保護の技術実装を標準化(監督委員会下での匿名化/アクセス制御)。(opb)

リスク/トレードオフ:データ共有による競合の台頭、プライバシー/コンプラの実装コスト、海底ケーブル/電力のCapEx偏重。代替案として相互運用 API/フェデレーションの拡充で“囲い込みに依存しない”競争力を模索。


8.ステークホルダー分析(抜粋)

ステークホルダー 期待価値 懸念
ユーザー/ゲーマー 低レイテンシ/高安定の体験 料金/個人情報
開発者/スタジオ グローバル即時配信/運用容易性 ベンダーロックイン
規制当局 公正競争/データの可用性 プライバシー/監視
供給網/電力事業者 長期需要/共同投資 地政学/環境負荷
競合 CSP 相互運用/相互接続 黒子化(ネット裏側の収益化)

(Premium Tier/エッジ/海底線規模、行動是正の要件は上記の期待/懸念を規定)(Google Cloud, opb)


9.仮説 → 根拠/データ → 再検証 → 示唆・次のアクション

仮説 AGoogle の“自前ハード+私設バックボーン”は、対戦ゲーム/配信におけるレイテンシ/ジッタで優位をつくる
根拠:Premium Tier の設計、エッジ/海底/ファイバ規模、実測で5〜10%短縮の事例。(Google Cloud)
再検証:実運用で RTT/ジッタ/パケットロスを観測(多地点/時刻)。リージョン/エッジの切替で比較。
示唆/次アクションPremium Tier を前提GKE/Global LBで構成し、SLO をジッタ込みで策定観測と自動切替(Traffic Director 等)を初期から仕込む。

仮説 B“Chrome の売却回避”で垂直統合は続くが、データ共有ルールは製品設計に影響
根拠Chrome 売却は不要排他契約の制限データ共有義務の判示。(opb)
再検証:最終命令文の適用範囲/期間/技術委員会ガイドラインを継続トレース。
示唆/次アクション検索/広告/AI のデータ境界を再設計。匿名化/差分プライバシー/アクセス監査を標準機能化。

仮説 CTPU 世代更新は“推論の単価/遅延”を段階的に下げ、アプリ設計を変える
根拠TPU v4 の光スイッチ結合Ironwood(推論世代)の大規模構成(256/9,216 チップ)オプション。(arXiv, blog.google)
再検証:実ジョブ(RAG/多人数セッション/マッチメイキング)のスループット/レイテンシ/単価
で A/B。
示唆/次アクション推論を“エッジ近傍+TPU ポッド”に再配置QoS を観測→自動スケールで運用負荷を最小化。


10.なぜで深掘り

なぜ①:なぜ Google はハードウェアまで作るのか?
検索/動画/マップ/AI品質とコストは、ネット/サーバ/電源/チップの物理層で決まるため。(pages.cs.wisc.edu)

なぜ②:なぜ物理層が効くのか?
遅延/ジッタ/障害/電力設計と運用の両面で“面”の最適化が効くから(Jupiter/B4/48V/TPU)。(research.google, コンピュータサイエンス, Google Cloud)

なぜ③:なぜ“面の最適化”を他社に任せないのか?
要件が過酷(規模/電力/地理/AI)で、部品最適の寄せ集めでは TCO と体験が頭打ちになるため。(arXiv)

なぜ④:なぜ eスポーツで評価されやすいのか?
Premium Tier+広域エッジ実測の遅延短縮が確認されており、公平性と体験に直結するから。(Google Cloud)

なぜ⑤:なぜ今も投資を続けるのか?
AI/配信/対戦帯域×遅延×コストの複合戦。規制環境に対応しつつも、垂直最適は依然として競争優位の源泉だから。(opb)


おわりに

Google は「ソフトウェア会社」だけではなく「ハードウェア会社」でもあります。外販シェアには映らないものの、台数・ネット規模・電源・チップまで統合する力が体験とTCOを左右しています。
規制環境は厳しくなっていきますが、行動是正の範囲内で“面の最適化”を深化させていく――その帰結として、eスポーツ/生成AI/配信は今後とも低レイテンシ×大規模のメリットを受けられるでしょう。(Google Cloud, opb)


参考(主要出典)

  • WSC 概念The Datacenter as a Computer(Google/Morgan & Claypool, 2018)。(pages.cs.wisc.edu)
  • Jupiter(DC ネット):SIGCOMM’22 “Jupiter Evolving”。(research.google)
  • B4(SDN WAN):SIGCOMM’13 “B4: Experience with a Globally-Deployed SD-WAN”。(コンピュータサイエンス, research.google)
  • 48V ラック/OCP:Google の OCP 参加発表。(Google Cloud)
  • TPU v4/光スイッチ:arXiv 2023。(arXiv)
  • Ironwood(推論世代 TPU):Google 公式発表。(blog.google)
  • Premium Tier/エッジ数:Google Cloud 公式。(Google Cloud)
  • “5〜10%レイテンシ改善”事例:Game Insight 公式ケース。(Google Cloud)
  • Chrome 売却回避と是正:OPB(NPR)。(opb)
1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?