8
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Gemini Deep Research Agentの実力とその思考過程とは?

Last updated at Posted at 2025-12-20

はじめに

こんにちは!株式会社SapeetのAIソリューション事業部でアルゴリズムエンジニアとして働いている堀ノ内です。

弊社ではweb検索情報を元に、企業リサーチ、業界動向などを調査するAIワークフローの開発を手掛けています。これまでにTavilyなどの検索サービスを用い、検索結果をLLMでサマライズしたり、Deep Research(web検索やファイルなどの情報源をAIが自律的に調査、分析し包括的なレポートを生成する技術の総称)を簡易的に模したワークフローを作ったりと様々な手法を試してきました。

そして先日、GoogleからGemini Deep Research AgentというAPIが公開されました。こちらが今後の開発に活かせないか、使ってみてその所感をまとめます。

まずは実行してみる

公式ドキュメントにサンプルが掲載されているため、まずはそれに従って動かしてみます。依頼内容は「Google TPUsの歴史について調査して(サンプルに記載された英語の内容を翻訳したもの)」です。
また実行するにはあらかじめAPIキーを発行しておき、以下のようにexportする必要があります。

$ export GOOGLE_API_KEY=xxxx
from google import genai

client = genai.Client()

interaction = client.interactions.create(
    input="Google TPUsの歴史について調査して",
    agent='deep-research-pro-preview-12-2025',
    background=True
)

print(f"Research started: {interaction.id}")

while True:
    interaction = client.interactions.get(interaction.id)
    if interaction.status == "completed":
        print(interaction.outputs[-1].text)
        break
    elif interaction.status == "failed":
        print(f"Research failed: {interaction.error}")
        break

プログラム実行後、4~5分程度経過し以下のような結果が出力されました。

調査結果(マークダウンエディタに貼って頂けると見やすいです)
## 重要なポイント
- **開発の背景:** 2013年頃、Googleは音声検索の普及に伴い、従来のCPU/GPUではデータセンターの 計算能力が不足し、設備を倍増させる必要があるという危機に直面しました。これに対処するため、機械学習(特にディープラーニング)に特化したドメイン固有アーキテクチャ(DSA)としてTPUが開発されました [cite: 1, 2]。
- **世代ごとの進化:**
    - **TPU v1 (2015):** 推論(Inference)専用。シストリックアレイを採用し、当時のCPU/GPUと 比較してワット当たり30〜80倍の性能を実現 [cite: 3, 4]。
    - **TPU v2 (2017):** 学習(Training)と推論の両方に対応。高帯域幅メモリ(HBM)と独自の相互接続(ICI)を導入し、スーパーコンピュータ(Pod)構成が可能に [cite: 3, 5]。
    - **TPU v3 (2018):** 液冷システムの導入により集積度と性能を向上 [cite: 3, 6]。
    - **TPU v4 (2021):** 光回線スイッチ(OCS)による動的なネットワーク再構成を実現し、3Dトーラス接続を採用 [cite: 7, 8]。
    - **TPU v5 (v5e/v5p) (2023):** 効率重視の「v5e」と性能重視の「v5p」に分化。大規模言語モ デル(LLM)への最適化が進む [cite: 9, 10]。
    - **TPU v6 Trillium (2024):** マトリックス演算ユニットの大型化とエネルギー効率の改善 [cite: 11]。
    - **TPU v7 Ironwood (Preview):** 推論に特化した超高性能チップとして、NVIDIAのGPUに対抗する姿勢を鮮明にしている [cite: 12, 13]。
- **アーキテクチャの特徴:** 汎用性を捨てて行列演算に特化した「シストリックアレイ」、低精度演算(INT8, bfloat16, FP8)の活用、そしてチップ間を直接接続する強力なインターコネクトがTPUの核心です。

---

## 1. 序論:ムーアの法則の減速とドメイン固有アーキテクチャの台頭

2010年代初頭、半導体業界は「ムーアの法則」の減速と「デナード則(スケーリング則)」の崩壊という物理的な限界に直面していました。汎用プロセッサ(CPU)の性能向上ペースが鈍化する一方で、インタ ーネット上のデータ量と計算需要、特にニューラルネットワークによる機械学習の計算負荷は指数関数的に増大していました。

Googleにおいてこの問題が決定的となったのは2013年のことです。Googleの内部試算によると、もしAndroidユーザー全員が1日にわずか3分間Google音声検索を利用した場合、当時の計算インフラでは処理しき れず、データセンターの数を倍増させる必要があるという衝撃的な予測がなされました [cite: 1, 2]。 これは莫大なコストと電力消費を意味し、経済的に持続不可能でした。

この危機に対処するため、Jeff Dean氏やNorm Jouppi氏を中心とするGoogleのエンジニアチームは、汎用性を犠牲にして特定の計算タスク(この場合はTensorFlowによる行列演算)に極限まで最適化したASIC(特定用途向け集積回路)、すなわち**TPU (Tensor Processing Unit)** の開発を決断しました。これは 、コンピュータ・アーキテクチャの歴史において、汎用計算からドメイン固有アーキテクチャ(DSA: Domain Specific Architecture)へのパラダイムシフトを象徴する出来事でした。

---

## 2. TPU v1: 推論への特化とシストリックアレイ (2015年)

### 2.1 開発とデプロイ

TPU v1は、設計開始からわずか15ヶ月という異例の短期間でデータセンターに配備されました [cite: 4, 14]。2015年からGoogle内部で稼働を開始し、Google検索、翻訳、Googleフォト、そしてAlphaGoの対局 など、主要なサービスの裏側で推論処理を担当しました。一般に公表されたのは2016年のGoogle I/Oでした [cite: 15]。

### 2.2 アーキテクチャ:シストリックアレイ

TPU v1の最大の特徴は、**シストリックアレイ(Systolic Array)**アーキテクチャの採用です。
CPUやGPUがレジスタとメモリ間で頻繁にデータの読み書きを行うのに対し、シストリックアレイは心臓(Systole)が血液を送り出すように、演算ユニット(ALU)の配列を通してデータを波のように通過させます。

- **マトリックス乗算ユニット (MXU):** 256×256の8ビット乗算器(合計65,536個)を搭載 [cite: 3, 4]。
- **データフロー:** データはアレイ内を一方向に流れ、隣接する演算器に直接渡されます。これにより、メモリアクセスの頻度を劇的に削減し、電力効率を向上させました。
- **数値精度:** 推論(Inference)に特化していたため、学習に必要な高精度の浮動小数点演算では なく、8ビット整数(INT8)演算を採用しました [cite: 2, 16]。

### 2.3 性能とインパクト

TPU v1は、当時のサーバー向けCPU(Intel Haswell)やGPU(NVIDIA K80)と比較して、推論ワークロー ドにおいて15〜30倍の処理速度、ワット当たり性能(電力効率)では30〜80倍という圧倒的な性能を達成しました [cite: 3, 4]。
スペックとしては、700MHzで動作し、92 TOPS(Tera Operations Per Second)の演算性能を持ちながら 、消費電力はわずか28〜40W(TDP 75W)に抑えられていました [cite: 2, 16]。インターフェースはPCIe Gen3 x16を使用し、既存のサーバーのSATAディスクスロットに物理的に収まるように設計されていまし た [cite: 5, 15]。

---

## 3. TPU v2: 学習への対応とスーパーコンピュータ化 (2017年)

### 3.1 推論から学習へ

TPU v1は推論には強力でしたが、ニューラルネットワークの「学習(Training)」を行う能力はありませんでした。学習にはバックプロパゲーション(誤差逆伝播)が必要であり、より高い精度とダイナミックレンジを持つ浮動小数点演算が不可欠だからです。Googleは2017年、学習と推論の両方に対応したTPU v2を発表しました [cite: 3, 17]。

### 3.2 技術的革新:Bfloat16とHBM

TPU v2では、以下の重要な技術的革新が導入されました。

1. **Bfloat16 (Brain Floating Point Format):**
従来のIEEE 754標準の32ビット浮動小数点(FP32)は機械学習には過剰な精度でした。一方で16ビット(FP16)ではダイナミックレンジが不足し、学習が発散するリスクがありました。Googleは**bfloat16**を考案しました。これはFP32と同じ指数部(8ビット)を持ちながら、仮数部を切り詰めて16ビット長 にしたものです。これにより、FP32と同じ数値範囲を扱いつつ、メモリ帯域と計算リソースを節約することに成功しました [cite: 3, 18]。
2. **高帯域幅メモリ (HBM):**
TPU v1のDDR3メモリ(34GB/s)はボトルネックとなっていました。TPU v2ではHBM(High Bandwidth Memory)を採用し、チップあたり600GB/s(ボードあたり2400GB/s)という広帯域を実現しました [cite: 5, 15]。
3. **MXUの構成:**
各TPU v2チップは2つのTensorCoreを持ち、各コアには128×128のMXUが搭載されました [cite: 5]。

### 3.3 Cloud TPUとPod構成

TPU v2は単体のアクセラレータとしてだけでなく、相互接続されたスーパーコンピュータシステム「TPU Pod」として設計されました。

- **ICI (Inter-Chip Interconnect):** 専用の高速インターコネクトにより、CPUを介さずにTPU同士 が直接通信可能になりました。
- **2Dトーラスメッシュ:** チップは2次元のトーラス状に接続され、最大256チップ(64ボード)で1 つのPodを構成し、11.5 PFLOPSの演算性能を実現しました [cite: 15, 19, 20]。
- **Google Cloudでの提供:** TPU v2から「Cloud TPU」として外部顧客へのレンタルが開始され、研 究者や企業が利用可能になりました [cite: 19, 21]。

---

## 4. TPU v3: 液冷による高密度化とスケーリング (2018年)

### 4.1 熱問題への対処

ムーアの法則の限界により、プロセッサの性能向上は発熱の増大を伴うようになりました。2018年に発表されたTPU v3では、空冷の限界を超えた熱密度に対処するため、Googleのデータセンター向けチップとして初めて**液冷(Liquid Cooling)**システムが導入されました [cite: 3, 6, 22]。

### 4.2 性能の倍増

液冷の採用により、より高いクロック周波数と集積度が実現しました。

- **スペック:** TPU v3はv2と比較して、チップ単体およびPod全体で約2倍の性能向上を達成しました。各チップは2つのTensorCoreを持ち、BF16で123 TFLOPSのピーク性能を発揮します [cite: 23]。
- **Podの拡大:** TPU v3 Podは最大1,024チップまで拡張可能となり、その合計演算性能は100 PFLOPSを超えました [cite: 6, 15]。これは当時の世界トップクラスのスーパーコンピュータに匹敵する性能です。

---

## 5. TPU v4: 光回線スイッチと3Dトーラス (2021年)

### 5.1 ネットワークの壁とOCS

AIモデル(特にLLM)の巨大化に伴い、チップ単体の性能以上に、数千個のチップを繋ぐネットワークの 帯域とレイテンシが学習速度のボトルネックとなってきました。2021年に発表されたTPU v4では、この課題に対し**光回線スイッチ (OCS: Optical Circuit Switch)** という画期的な技術で対応しました [cite: 3, 7, 8]。

### 5.2 OCSによる動的再構成

従来の電気的なスイッチ(InfiniBandなど)では、ケーブルの配線が固定されており、トポロジーの変更は困難でした。TPU v4では、MEMSミラーを用いたOCSを採用することで、物理的な光ファイバーの接続先 をソフトウェア制御で動的に切り替えることが可能になりました。

- **3Dトーラス:** 接続トポロジーは従来の2Dから3Dトーラス(またはTwisted Torus)へと進化し、 通信のホップ数を削減しました [cite: 3, 8]。
- **耐障害性と柔軟性:** チップの一部が故障しても、OCSが光路を瞬時に迂回させることで、システ ム全体を停止させることなく学習を継続できます。また、ワークロードに応じて最適なトポロジー(立方体や直方体など)を選択可能です [cite: 7, 24]。

### 5.3 性能スペック

- **プロセス:** 7nmプロセス(推定)を採用。
- **規模:** 1つのPodで最大4,096チップを接続可能となり、エクサスケール(1 ExaFLOPS以上)の演 算能力を実現しました [cite: 7, 25]。
- **SparseCore:** 埋め込み(Embedding)処理に特化した「SparseCore」が搭載され、レコメンデー ションモデルなどの処理効率が大幅に向上しました [cite: 3, 24]。

---

## 6. TPU v5: 用途別への分化 (2023年)

AIの利用フェーズが「巨大モデルの学習」と「効率的な推論・ファインチューニング」に二極化する中、GoogleはTPU v5世代で製品ラインを2つに分割しました。

### 6.1 TPU v5e (Efficiency)

- **目的:** コストパフォーマンスとエネルギー効率を最優先したモデル。推論や中小規模の学習向け。
- **特徴:** TPU v4と比較して、ワット当たりの性能やコスト効率が大幅に改善されています。INT8性能が強化されており、TransformerモデルやCNNの推論に最適化されています [cite: 10, 11]。
- **構成:** 最大256チップのPod構成をサポート [cite: 10]。

### 6.2 TPU v5p (Performance)

- **目的:** 最先端の巨大AIモデル(Geminiなど)の学習を最速で行うためのハイエンドモデル。
- **特徴:** TPU v4と比較してFLOPSは2倍、メモリ帯域は3倍に強化されています。
- **スケーラビリティ:** 1つのPodで最大8,960チップまで拡張可能となり、Google史上最大の計算ク ラスタを構築可能です [cite: 9, 26]。これにより、兆単位のパラメータを持つモデルの学習時間を大幅に短縮しました。

---

## 7. TPU v6 Trillium: 次世代の標準 (2024年)

2024年5月のGoogle I/Oで発表された第6世代TPUは「**Trillium**」と名付けられました。

### 7.1 性能の飛躍

- **スペック:** TPU v5eと比較して、チップ当たりのピーク演算性能は4.7倍に達しました [cite: 11, 27]。
- **メモリ:** HBMの容量と帯域幅が倍増しており、より大きなモデルやバッチサイズを扱えるように なりました。
- **MXUの拡大:** 行列演算ユニット(MXU)のサイズが拡大され、クロック周波数も向上しています [cite: 15, 27]。

### 7.2 エネルギー効率とスケーリング

Trilliumはエネルギー効率も重視しており、v5eと比較して67%以上効率が向上しています。また、最大256チップの高速低遅延Podを構築でき、さらにマルチスライス技術を用いて数万チップ規模のスーパーコンピュータへと拡張可能です [cite: 11, 27]。これはGoogle DeepMindのGemini 1.5などの次世代モデルの学習基盤となっています。

---

## 8. TPU v7 Ironwood: 推論特化とNVIDIAへの対抗 (Preview/2025年)

最新の情報(2025年の予測・発表を含む)では、第7世代となる「**Ironwood**」の存在が明らかになっ ています。

### 8.1 推論への回帰と超高性能

Ironwoodは、学習だけでなく、特に大規模モデルの「推論(Inference)」に極めて強力に最適化されて います。

- **性能:** チップ単体で4.6 PFLOPS(FP8時と推定)という驚異的な性能を持ち、電力効率も極めて 高いとされています [cite: 3, 13]。
- **メモリ:** HBM3eを採用し、広帯域を確保。
- **目的:** 生成AIの普及により、学習よりも推論のコストが爆発的に増加している現状(「推論の時代」)に対応するための戦略的製品です [cite: 12, 28]。

### 8.2 ビジネスモデルの転換

特筆すべきは、GoogleがAnthropic社との間で大規模な契約を結んだことです。Anthropicは100万基規模 のTPU(主にIronwoodと見られる)を利用する計画であり、これはGoogleが自社サービスだけでなく、外 部のAI企業に対してNVIDIA GPUの代替となる強力なインフラを提供する「マーチャント(外販/大規模レ ンタル)」的な立ち位置を強化していることを示唆しています [cite: 13, 29, 30]。

---

## 9. 比較と総括

### 9.1 TPU世代別スペック比較表

| 世代 | 発表年 | 主な用途 | 製造プロセス | メモリ | ネットワーク | 特記事項 |
| --- | --- | --- | --- | --- | --- | --- |
| **TPU v1** | 2015 | 推論 | 28nm | DDR3 | PCIe (ホスト経由) | シストリックアレイ初採用、INT8 専用 [cite: 2] |
| **TPU v2** | 2017 | 学習/推論 | - | HBM (16GB/chip) | 2D Torus | 学習対応、Bfloat16導入、Pod構成 [cite: 5] |
| **TPU v3** | 2018 | 学習/推論 | - | HBM (32GB/chip) | 2D Torus | 液冷導入、v2の2倍の性能 [cite: 23] |
| **TPU v4** | 2021 | 学習/推論 | 7nm (推定) | HBM (32GB/chip) | 3D Torus (OCS) | 光回線スイッチ(OCS)、4096チップPod [cite: 7] |
| **TPU v5e** | 2023 | 効率重視 | - | HBM2 (16GB) | 2D Torus | コストパフォーマンス最適化 [cite: 10] |
| **TPU v5p** | 2023 | 性能重視 | - | HBM (95GB) | 3D Torus | 大規模LLM学習用、8960チップPod [cite: 25] |
| **TPU v6** | 2024 | 学習/推論 | - | HBM (倍増) | - | Trillium。v5e比4.7倍の性能 [cite: 11] |
| **TPU v7** | 2025 | 推論特化 | 5nm (推定) | HBM3e | - | Ironwood。FP8対応、NVIDIA対抗 [cite: 13] |

### 9.2 GPUとの違い

GPU(NVIDIA H100など)が汎用性を残したSIMT(Single Instruction, Multiple Threads)アーキテクチャであるのに対し、TPUは行列演算に特化したASICです。

- **メリット:** 制御ロジックやキャッシュを削減し、演算器の密度を高めているため、電力効率と面積当たりの性能が高い。大規模クラスタ構築時のネットワーク(ICI/OCS)が統合されており、スケーリ ングが容易。
- **デメリット:** TensorFlowやJAX、PyTorch(XLA経由)など、特定のフレームワークへの依存度が 高く、CUDAエコシステムを持つNVIDIA GPUに比べて汎用的なソフトウェアの互換性では劣る場合がある [cite: 22, 31]。

### 9.3 結論

Google TPUの歴史は、AIの進化そのものを映し出しています。当初は単純な推論(v1)から始まり、ディープラーニングの学習需要への対応(v2/v3)、巨大モデルのためのネットワーク革新(v4)、そして生 成AI時代の効率化と推論コスト削減(v5/v6/v7)へと進化を続けてきました。
Googleが自社でシリコンからシステム、ソフトウェア(TensorFlow/JAX)までを垂直統合で設計している点は、AWS(Trainium/Inferentia)やMicrosoft(Maia)などの競合他社に対する強力な優位性となって おり、今後のAIインフラ競争においても中心的な役割を果たし続けると考えられます。

**Sources:**

1. [uncoveralpha.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEiJO89Ds-kz70usZhhmKrIj6l1zTtU9v9YYoCPDQeFC5QqpMDiNNZSdf1a7c6oOPSlfEB9mz_Ry2hZDm6quZx3Gdnvo3kkgB7p4SAfd2WvS0xkTQ3xTps7ZUni4qMsJOwECi3MZ37VGvk3qEiHAkDJW1tjPXvb)
2. [arxiv.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGMVCRODXQuA2KCxr0uQaMMcq8F3zLRJFHB46eURcQavQzesWjWw8Qf-pUfWyEHRcw3Ns69iA1fRdQ0vf3c0IsZjVsDTOptKUC6GbRqScsSG2djuPcq)
3. [introl.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFHw4b5lJoYP3QTafqbGk-aIGsZTkB6WEs5lRs_40l8GoaHH_5NzFAE5xEZbTqXIayj0wSvfHs7lVxY8-slkHaAwPC0-wD4t3Q9hw2AdyXSKoUfd1-UndqWWg0U8gkBF15X3ryswhfp7KgwwlFVDXk_Q_jQkTCJjJkKlS71k5iRtxE=)
4. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFncomqSCglcabBjPd_q5BbqeZkilpn0qWokhV0XzMK9NyE81LOtsLmKuLJsKqt-UQRPt7IAZ_zu2s1Vm8cZOea5KDI28Aa3yhgpQwAlWAQU-sw0w7S-4HOd-srEcxa3anW9BFxhWAz98FEf56AfwOQ4V3_9rXQnpJj9SoyC8qBfBY70uOAw0KYvHkqR2epfbMBjh1im2QDxEdxigZALAdZ6sWt1CHpx2oBRcEi)
5. [tomshardware.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGiCCR1J_mo47zpY3BNlhm51FHnLoVP4Twi-JpOMXWcSFobxkcNKv3V8jRC3BGDZDrqYDBDiKgeA-XcAekvfm8lDWpjh-dt9N6xJegK2bfzvtq-iQkXt5lBc54R0TdoACwqAMGSpSr5i9bnSG7Tdn5rqQ2qu5e2_aI8-dykGBglTA==)
6. [nextplatform.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQE7zQfRllipEhuS3gxgRN_ZyzIFtKSPkI6mT-UmdC9oXPtx135OB0cGzTDLDbqzEhHdrOJE_qj537332Szy8O_fs-XPGYUOn9Ur-dl9qO40afxWAiMDSEy71kF9EyGhwQ5pPSWmslQutXh-2N_zM3s_3TzH1HrQxShxk7dW7rX4LDpGsd8XBHkssEk=)
7. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEFdh2TSRu6EZirXAbHpSauHba4guMrtVqXa9oniOjaQ6vusnB_wdOG8-ve3XyyvJVLrcQZbsYkRou_l9uS-B6xGqK6FICsIkMivAKUqeCrW7uZK0XCwLA4oKyZervbRPLMgQDuvAJCR8DwNrZvzhfqw3YD4AmaLgh5bsQrUNgMe7yEzRvORH4AGQROez4gejHXTlTEbKqvsBqbdk3-)
8. [usenix.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGeX2m6Qkec8mjaRBAMUU-xImq9kqDgzLj4Iv4k94lEZ7aHOl4dZmub9OfytKL3DH-0KFO8sXPZZzxXAPzqvgldizbI7RuWnivGqLJc027ouQwjW51UjO1xEPWhh2eU-FsQYZygiU8=)
9. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQH6nSCDa1dQTG8mrKj3rU1cMMLdPNUcAyPj195qZeicCwMMHhat3_iXfuXp2oIl9INK5p4z_86VMzqYEcv3kuexTa6v9GwIzAVCG9itD4zkjCkTgF4Yji3DzkQHquvapYeBV_toz9Py-4SxwmgJYaVadI6DhlaZa7wb2TZU0-zWittomjBkMuKDxhEsVq7a2_r2OYt8x03-dKABwApr_w==)
10. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHdBcz6Sg-h5j1tv7wNs9r5HMSXN_wv8-nqsOiAuoa1SVSezgbjP7MA1O4N2ASPsXlULPZJP4uvHgk1yWyY8AOtmg5DUva9xNfKRZW-8S2Wk7n0aGl_Ax2TwRQq-2jBTw==)
11. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHyjYDI1vqytnx6AE7Ihtnef5x3BR9D6wnFo0fBVkLCgzwnk7Z59FgB7CBfIrXYcYXbA4SqJESoK5APBMzrYU57OV1ofwgbPoUemUGGo7B3lTzglGWgx_SN9T4euMWEZwbbnSR0gPgOFKVK_EZJa4x7l83JC9-1K-Gn3nCB6dJ_U74UL4HQMBLASXyOC1NVKA==)
12. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEqojvuHAi8YHG_BVrcxf-HiTkrrdZtIEPG47UQYIrVV5dArz1297lYeQ0JeODOJ5Z8oa7RrwpNOusOXIslvHXn6RGu4rK_vnoa4D6pacllTF1rsWJRgPTI9w9k67gOra-URby2UjR8Nle5X_gbRcaujHNPDS291KdRlOiwjlS9hKMDAXFArVYbKoS9oF4OJ-0vwMMyTjXmiQy1VMxpXrY=)
13. [ctol.digital](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGSi9jxcYVSzdGsPkNiglJq1l2oBsmPXzRiOSJpE1Mk9UXrJsoTb257BeNQypoh4rSVoE9HA8D2w9VIStrBNuAJV8EI4lzxmlLeVTWcBEJkkKgoCsweaJ95YVrlB3sL1qMcRjw7nGn59dxBvinZLlnXSMrnhlwwiJ5buOq3S-cIU0EhBv8-dyJqsKPSCYMqXVlunWSe6VULs91yf0kdGAKDWVADLXTyIooq)
14. [mbi-deepdives.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFFlGgFpDrXFI76-vdo-vRPDopVulfyRMyDNgU8J6hsclk-HUy5gw2QhPV4T9e6khLI9jQcowWRkH4AGFlA4afwQNK1a0smXnp3VY7HJkef3lhAJCUy2SuwEF79g9YzBPXPEhK9qpwhzLoxPGPWCeZO4A==)
15. [wikipedia.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGe-xplcLpfA-gfL5dtDbU_6zpjFCEVdNEJrtsUt-vJfEYciI20DUTP3pUqbljha8V80MSRNzqYYzDf1LnT6dZPmcSjR27iNn08SB0Zr0b-9eTUzinzQQMHcoTlJbBb1EkzttiHPill1dc=)
16. [top500.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQH7nkvw7XEY4EuIpmhpabrvZDd6lvriE395elpwmmiYu6v_5LGeAkXxNxrSMzohAmwT0m43HLDmDJV1brdyuwyW1pXt30asR5AE9Ka7sQjaJVkaAr20lLY5IdVA4o4AH89oW5Vn3L1Ntv6nBW5w3JpCTBOo85BA7p3_TvvBjmeGXFFhD6WHwTaoyRd7sqRTO2VoqDRIP6_AflM=)
17. [orhanergun.net](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEyiudwkvcpoNOgVedUotYmYyd0NsxjLYWUNMWTpfj2FVCeCr6Uj-FuUeOZmo0NHi0nvE7Q8pPhccJjOSgEdcmg55fgiAvsNzHaLtYlE4mkS2iqIeeUy5uUUmxyLcTS1F55TF7j7JamineZsc-CbO02S_wrbGD7X7xYXTi90xpQaR_zrVc=)
18. [youtube.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFFo6jMd_ABIefxIO1-eub3c6YK4c_bFlsLGKczhzAnyOH6iJ1SsTezPVjKef2arjPMEFxadzFxCJ5vdbj4zZDKi_CYanQ5SVP7s9cueXu7_HEIE0-IBjduu_eOX0d8bPg=)
19. [silvertonconsulting.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGVJzwfFj87UK4xp4HS02v3TbPQ6EipNssd_XrGykNoZwUrcbrijeX6a7zisOHqZdYjKICUYcKaRxgimHTumHOpk7v8zy03xGn6WMYEJytIg1re_lMlLU83HV7B6SNQtbuGbYmYSV-NyzATrZvdq1mos99g_RLSXEb32hV122GCGORIpdvo_iGWdmfex8k5sXRW_8SqjJGxBUPqFOd1gHL43hUcEU681jyLKNw=)
20. [nextplatform.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEl3qk7ph7FTSVd6TJ17WmzV5-dBQx5R5zemslhSt2_u2cxjRy6tufEm-e17NzmAwnba0ryUgAs01vTu8bDRfENi_pqTnujD7LU0_SktmkSzJh6AdzLEZLhKSmJeCH0k2rvgNOupj7pCtBQdiGEL73fSqJRlyCHkTy_BhKL2WgkcMG1YbowQ7ho9Q==)
21. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGgQztkiPLDUGQRkXW75a_iqAwxMD-1CC_3i2vgHhjihqRWIrOPH44hmerHKVFJJfCNzNUxKmZ5eN_u2FXk-8MLbwvcjuWOLG0gCIfgE-om-KAaCz19NBH8xbwBxXVWusMgm3cRw2Kp4rgd7huf06aJxRFec_IAzFX0_v67Po61)
22. [cloudoptimo.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHzpXspJH0IJjQduAPEf5n55sE5uPot85QxaWcfoqjn5A5liwKcK6OqjNiF-GjRu2LyR-_RxJ5D7oBGBE5UpDQXjBZTe46emzzBLe37hmdD75aMiHARAisnV044d1vq4de1UoyWEDzI-IvM7ofAAaoW62Jo5JItjLTj8Fd1LBKP0g==)
23. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFL9CvepCQk3BY8sAbB7rUug30LFg2gkBIUFNpIGcykL8Yxh3WYkdMDCh446iqetkA0zDs9odZBbc-asD22Elnz8ggmC_suQkYV9gNNMFS2jR5NE5WjG2hHA6ZhOHCW)
24. [arxiv.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGUj_tM_FW8YMcoijRCzG20sMVn3pyViNRNFrN9UfZAS3gKO1mdwy1eX2jk4tZ0RIHQjESxDWWueCNZEBHvUcw3ll5Zb-Q9-fQMGyzvItNJo6i5i-E7)
25. [elprocus.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQExpi1QrBwOyVDRwLM7maMVOJkNp_1yLkO11jc_Yx-LXG9dUGrhyuQpMUZVHEEBQXSPIomazIsJFwQ9lsW_vSB06VgX4DcBkK6N-1pql07gYvTR8gX0KyQfLceRoA==)
26. [medium.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHwAoyVM3JGQTFLJcTMgZvXkZTHFusA0s9SY8TDxDg6ZNHIgLBm2TJwlF2czPW3feP2zpi_OfQXFoo4jipFM6jsXnAHUc_3yJpwr8v3BYG9zDbIswAE1S8fU9MwEl2cfwaxFADysZ5bKSq4YjTrbaMLRT1TZmJ19kj0zCuClT2b0HBaTbFS80E=)
27. [google.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGCZAXA3D3XC24ekP9fz23XUc0RAT5vP3TRkbpzxjb13sopH64rwTaskp-X_vtZ4I81F7s_XH7akX7blMBCA2gxyqMLojfiWF0EYCxBv9no60zDS16gPRS251FUrPeF3KAzM-ubO8JUl9aLjKmORL0lXBGg-dG_ZxOkSMOjjHAX1LeddS7R)
28. [creativestrategies.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGQ33tw-pPBygjJ5FPba1enTCyVGsC5GQb2wCqwmv0kByjGd0GfeDsX1Y5PKZW1nALeiTEIRFF_tddRYmMsBuYXgYaU0yf872X2htYiSvaXbzMqzpQhwcuUIQqKNMpBICHs-6AUQRkmKzPm0BJQejyGRb6FlcBJZAnwM7nF9JiTmoFkE9bOpqUU_FC7oOR2U4BHonw0JzxRL22gVgR91zr5uLbduTN0B6g-L96m2JDu)
29. [semianalysis.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEEHqxUwNNB1q5DdFGCWPQI0G7pVdEhWruzCzEHz9S2s7V0lGDTixpjn1BS_gNh_Ns-IXciTOQM12h_o6n0oe2ecKnCLCoateg7wF9cHPvYNXXZQeuE8td3uRva2C_BcHZkxmpm-ibqVfs7pJdgBuyR3gnGOPjDF5G7Qcg7)
30. [aimagazine.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQE8KOvltVuEvIhG2Ni4lhPxZKhdKSHWnA2dVjZzRGOoHaAhKDemSkzIhCnYiISPyLGmInD4-O0nDt3YjFhVF5KAACEKAFAdhM3qbu4tld-wL1XHWOez5Tw4SNPf_qA5sgQdjOEu8QU8KjQe-tOUJSi5ofonNgaDft07pHwkybVGvraVr4o1gLL6xqSW)
31. [skymod.tech](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQE2q61_82bMGFtYfP-bF9-AdMaeB9sXSYQujy855Dds3vLFKGdxNl2wCyBLl6WA9N9tpX1oZcvxVjVyo4rG59sxGEUNNySmMHXwuOJgnXAvRacqEgdWkFQGU_pwfXLjH1W63lfGPPfeL3fC4vs2NVUG)

まず驚くのがその出力量です。カウントすると15919文字でした。
GoogleのTPU(Tensor Processing Unit: AIの学習、推論に特化した半導体)開発のきっかけからその歴史が分かりやすく、かつ読ませる文章で出力されています。
また、情報ソースとして31個ものリンクも含まれ、かつ引用箇所も表示されており、ファクトチェックしやすくなっています。

開発の背景: 2013年頃、Googleは音声検索の普及に伴い、従来のCPU/GPUではデータセンターの
計算能力が不足し、設備を倍増させる必要があるという危機に直面しました。
これに対処するため、機械学習(特にディープラーニング)に特化した
ドメイン固有アーキテクチャ(DSA)としてTPUが開発されました [cite: 1, 2]。

思考過程を見てみよう

ストリーム実行

Deep Research Agentは調査する上での思考過程をストリーム出力する機能があるようなので、こちらも試してみました。今度はOpenAI社の歴史と事業内容について調査を依頼してみましょう。

from google import genai

client = genai.Client()

stream = client.interactions.create(
    input="OpenAIの歴史と事業内容について調査して日本語でまとめて",
    agent="deep-research-pro-preview-12-2025",
    background=True,
    stream=True,
    agent_config={"type": "deep-research", "thinking_summaries": "auto"},
)

interaction_id = None

for chunk in stream:
    if chunk.event_type == "interaction.start":
        interaction_id = chunk.interaction.id
        print(f"Interaction started: {interaction_id}")

    if chunk.event_type == "content.delta":
        if chunk.delta.type == "thought_summary":
            print(f"[Thought Summary]\n{chunk.delta.content.text}", flush=True)

    elif chunk.event_type == "interaction.complete":
        print("\nResearch Complete")

Deep Research Agentは調査タスクを実行した結果がクラウド上に保存される仕組みに
なっており、調査タスク時に得られたinteraction.idを用いて以下のように調査結果やコストを取得することができるようです。
コストに関してはGemini 3 Proの価格に従うということですので、こちらの料金表をもとに計算しました。

from google import genai

client = genai.Client()

interaction_id = (
    "" # Deep Research実行時にinteraction_id = chunk.interaction.idで得られたID
)

interaction = client.interactions.get(interaction_id)

print(interaction.outputs[-1].text)
input_tokens = interaction.usage.total_input_tokens
output_tokens = interaction.usage.total_output_tokens
total_tokens = interaction.usage.total_tokens

input_cost = (
    input_tokens * 2.0 / 1000000
    if input_tokens < 200000
    else input_tokens * 4.0 / 1000000
)

output_cost = (
    output_tokens * 12.0 / 1000000
    if output_tokens < 200000
    else output_tokens * 18.0 / 1000000
)
total_cost = input_cost + output_cost

print(f"Status: {interaction.status}")
print(f"Total Input Tokens: {input_tokens}")
print(f"Total Output Tokens: {output_tokens}")
print(f"Total Tokens: {total_tokens}")
print(f"Input Cost: ${input_cost}")
print(f"Output Cost: ${output_cost}")
print(f"Total Cost: ${total_cost}")

実行結果

思考過程(英語)
[Thought Summary]
**Defining the Research Scope**

I'm starting my investigation to provide a comprehensive summary of OpenAI's history and current business activities. To achieve this, I've outlined key areas of research, including the company's founding details, its transition from a non-profit to a 'capped-profit' structure, major product releases (like the various GPT models and DALL-E), the critical partnership with Microsoft, and recent organizational events such as the 2023 leadership changes. I also plan to look deeply into their current business model, covering API services, subscription models (ChatGPT), and new developments like Sora and GPT-4o.
[Thought Summary]

**Strategy for Information Gathering**

My immediate plan is to execute general searches covering 'OpenAI history timeline' and 'OpenAI business model' to build a foundational understanding. Crucially, since the final summary needs to be in Japanese, I will also begin with searches using Japanese terms, such as 'OpenAI 歴史 事業内容', to ensure I gather information relevant to the Japanese context and terminology right from the start. Following the initial searches, I will refine my focus on specific events like the 2019 profit transition and the 2023 leadership crisis, ensuring the synthesis is robust.
[Thought Summary]

**OpenAI's Historical Trajectory**

I have successfully gathered the foundational timeline for OpenAI. This includes its founding in 2015 as a non-profit, the key shift in 2019 to a 'capped-profit' model (OpenAI LP), and the launch of major models like GPT-1 through GPT-4o, DALL-E, and ChatGPT. I also have synthesized information about the recent key internal event: the November 2023 leadership crisis involving Sam Altman's firing and subsequent rehiring.
[Thought Summary]

**Business Model and New Products**

The current revenue streams are clear: API access, various ChatGPT subscriptions (Plus, Team, Enterprise), and crucial partnerships, notably with Microsoft. New products and capabilities have also been identified, including the video generation model Sora (coming soon) and the very recent launch of the 'o1' model, which is noted to focus on reasoning capabilities. I also observed mentions of 'SearchGPT' prototypes.
[Thought Summary]

**Identifying Knowledge Gaps and Next Steps**

While the general picture is clear, I need to focus my next steps on crucial specifics that enhance the depth of the research. Specifically, I must verify the exact mechanics of the 'capped-profit' structure, confirm the latest organizational valuation (around $157 billion), and clarify the governance structure post-2023 restructuring. Furthermore, I detected potentially speculative information in some search results regarding future models like 'GPT-5.2', which requires immediate verification to avoid including misinformation. The next round of focused research will address these gaps, particularly the establishment and goals of OpenAI Japan.
[Thought Summary]

**Establishing the Current Timeline**

A crucial step in my current synthesis involved internal verification of the timeline. Given the system's simulated context of December 2025, I've confirmed that several events previously considered future or rumored are now considered historical fact for the purpose of this analysis. Key events that have occurred by December 2025 include the massive $6.6 billion funding round in October 2024 (valuing the company at $157 billion) and the major corporate restructuring announcement on October 28, 2025, transitioning the main entity into a Public Benefit Corporation (PBC).
[Thought Summary]

**Identifying Latest Product Releases**

The search results strongly indicate a significant expansion of the product line during 2025. Specifically, I observed snippets pointing to the release of 'GPT-5.2 Instant, Thinking, Pro' in November 2025, 'OpenAI o3-pro' in June 2025, and mentions of 'Sora 2.' While these products were previously hypothetical, I am treating their existence as facts within the simulated December 2025 context, confirming the company's rapid innovation trajectory.
[Thought Summary]

**Focusing on Japan-Specific Details**

I have foundational information regarding the establishment of OpenAI Japan in April 2024, led by Tadao Nagasaki. I also noted the release of a customized GPT-4 model specifically for Japanese language use. To ensure the final report is comprehensive, I am planning one final targeted search to uncover any specific 2025 milestones, partnerships, or adoption rates related to the Japanese branch to deepen this part of the business overview.
[Thought Summary]
**Verifying Information Consistency**

I am currently focused on verifying a candidate summary about OpenAI's history and business activities, particularly those related to Japan, against the backdrop of the provided system time (December 2025). The candidate response contains several specific dates like the $157 billion valuation in October 2024 and the establishment of OpenAI Japan in April 2024, which aligns with real-world events. However, the mention of an 'Economic Blueprint' in October 2025 seems potentially contradictory or predictive given typical AI knowledge cutoffs, so I will prioritize verifying the precise date and context of this blueprint.
[Thought Summary]

**Identifying Key Factual Gaps**

My primary goal is to confirm high-value, recent details to ensure accuracy. This includes investigating the status of the transition to a Public Benefit Corporation (PBC), the release status of advanced models like GPT-5 and OpenAI o1, and the reported enterprise adoption figures (one million companies). These details are crucial for providing a comprehensive and up-to-date summary.
[Thought Summary]

**Planned Verification Strategy**

I am executing targeted searches to verify these specific claims. This includes checking for news regarding the PBC transition, the latest developments surrounding OpenAI Japan's 'Economic Blueprint,' and the most current information available on model releases and enterprise customer numbers. This systematic approach will ensure the final Japanese summary is factually grounded.
[Thought Summary]

**New Company Valuation Timeline**

Synthesizing the recent search results, I've uncovered a potential progression in OpenAI's valuation that updates the information currently in the candidate response. While the $157 billion valuation from October 2024 is confirmed, multiple sources, operating within the context of the assumed 'Current time' of December 2025, suggest two subsequent valuations in 2025: $300 billion in April and a substantial $500 billion in October 2025. This rapid valuation increase is a crucial detail missing from the current draft which only cites the 2024 figure, making the draft potentially outdated.
[Thought Summary]

**Clarifying Business Adoption Metrics**

I noticed a significant discrepancy regarding OpenAI's enterprise adoption in the candidate text. The draft claims '1 million companies' are using their products. However, search snippets strongly suggest the actual figure is '1 million paid business users' (seats/accounts), not 1 million unique companies (logos). I need to confirm this distinction, as replacing 'companies' with 'users' changes the magnitude of enterprise penetration.
[Thought Summary]

**Confirmed Strategic Updates**

The searches confirmed several key corporate and product milestones in late 2025. The transition to the Public Benefit Corporation (PBC) structure appears to have been completed in October 2025, providing a firm date for this strategic move. Additionally, the 'AI in Japan: OpenAI's Economic Blueprint' was indeed announced in October 2025, providing concrete details on their commitment to the Japanese market, including the estimated 100 trillion yen economic impact. I also have evidence pointing towards the release of the 'GPT-5' series around November 2025.
[Thought Summary]

**Next Research Steps**

To finalize the updates, my immediate actions will focus on clarifying the discrepancies. I need to specifically search to verify the '1 million users vs. 1 million companies' metric and definitively confirm the 2025 valuation timeline and the existence of the Keio University partnership, ensuring the most accurate and recent data available in this 2025 timeline is incorporated.
[Thought Summary]

**Confirming Recent Financials and Timing**

I have successfully verified the most critical and recent data points mentioned in the candidate summary, ensuring they are consistent with the current time (December 2025). Specifically, the dates associated with the 'Economic Blueprint' (October 2025), the Keio University collaboration (December 2025), and the valuation increase to $500 billion (October 2025) are all confirmed and reflect up-to-date information.
[Thought Summary]

**Validating Business Adoption and Products**

I confirmed that the figure of '1 million business customers' is accurate, supported by data indicating that ChatGPT for Work serves over 7 million seats globally. Furthermore, the availability of advanced products like 'Sora' (Sora 2) is assumed for general context based on the current market information, allowing me to proceed with framing the final answer.
[Thought Summary]

**Synthesizing Final Response**

With all critical facts—including the dramatic valuation increase from $157 billion in 2024 to $500 billion in 2025, and the key pillars of the 'Economic Blueprint' (Inclusive access, Infrastructure, Education)—fully verified, I now have the necessary and current data to synthesize the complete response in Japanese as requested. I am marking the research as complete.
思考過程(日本語訳)
[Thought Summary] 調査範囲の定義
OpenAIの歴史と現在の事業活動に関する包括的な要約を提供するため、調査を開始する。設立の詳細、非営利から「利益制限(capped-profit)」構造への移行、主要製品のリリース(各種GPTモデルやDALL-Eなど)、Microsoftとの重要なパートナーシップ、および2023年のリーダーシップ交代劇といった最近の組織的出来事を含む、主要なリサーチ領域を概説した。また、APIサービス、サブスクリプションモデル(ChatGPT)、SoraやGPT-4oなどの新展開を網羅する現在のビジネスモデルについても深く調査する予定である。

[Thought Summary] 情報収集の戦略
当面の計画として、「OpenAI 歴史 タイムライン」や「OpenAI ビジネスモデル」を対象とした一般的な検索を実行し、基礎的な理解を構築する。最終的な要約は日本語である必要があるため、当初から日本の文脈や用語に関連した情報を収集できるよう、「OpenAI 歴史 事業内容」といった日本語の用語を用いた検索も並行して開始する。初期検索の後、2019年の営利化への移行や2023年の経営危機といった特定の事象に焦点を絞り、統合内容の堅牢性を確保する。

[Thought Summary] OpenAIの歴史的軌跡
OpenAIの基礎的なタイムラインの収集に成功した。これには、2015年の非営利団体としての設立、2019年の「利益制限」モデル(OpenAI LP)への重要な転換、GPT-1からGPT-4o、DALL-E、ChatGPTにいたる主要モデルの発表が含まれる。また、サム・アルトマンの解任とそれに続く復職という、2023年11月の主要な内部イベントに関する情報も統合した。

[Thought Summary] ビジネスモデルと新製品
現在の収益源が明確になった。APIアクセス、各種ChatGPTサブスクリプション(Plus、Team、Enterprise)、およびMicrosoftを中心とした重要なパートナーシップである。新製品と新機能についても特定した。これには、動画生成モデルのSora(近日公開予定)や、推論能力に焦点を当てたごく最近リリースの「o1」モデルが含まれる。また、「SearchGPT」のプロトタイプに関する言及も確認した。

[Thought Summary] 知識のギャップの特定と次のステップ
全体像は明確になったが、調査の深みを増すために重要な詳細に焦点を当てる必要がある。具体的には、「利益制限」構造の正確なメカニズムの検証、最新の組織評価額(約1,570億ドル)の確認、および2023年の再編後のガバナンス構造の明確化を行わなければならない。さらに、検索結果の中に「GPT-5.2」のような将来のモデルに関する憶測に基づいた可能性のある情報を検出したため、誤情報の混入を避けるべく即座に検証が必要である。次回の集中調査では、これらのギャップ、特にOpenAI Japanの設立と目標について対処する。

[Thought Summary] 現在のタイムラインの確立
現在の統合プロセスにおける重要なステップとして、タイムラインの内部検証を行った。システム上の現在時刻が2025年12月であることを踏まえ、以前は未来の出来事や噂とされていたいくつかの事象が、この分析においては歴史的事実として確定している。2025年12月までに発生した主要イベントには、2024年10月の66億ドルの大規模な資金調達(評価額1,570億ドル)、および2025年10月28日に発表された、主要法人をパブリック・ベネフィット・コーポレーション(PBC:公益法人)へ移行させる大規模な企業再編が含まれる。

[Thought Summary] 最新の製品リリースの特定
検索結果は、2025年中に製品ラインナップが大幅に拡大したことを強く示している。具体的には、2025年11月の「GPT-5.2 Instant, Thinking, Pro」のリリース、2025年6月の「OpenAI o3-pro」、および「Sora 2」に関する記述を確認した。これらの製品は以前は仮説上のものだったが、シミュレートされた2025年12月の文脈内では事実として扱い、同社の急速なイノベーションの軌跡を裏付けている。

[Thought Summary] 日本特有の詳細への焦点
長崎忠雄氏が率いる2024年4月のOpenAI Japan設立に関する基礎情報を得た。また、日本語使用に特化したカスタマイズ済みGPT-4モデルのリリースについても確認した。最終報告を包括的なものにするため、日本支社に関連する2025年のマイルストーン、パートナーシップ、または導入率を明らかにするための最終的なターゲット検索を計画し、事業概要のこの部分を深掘りする。

[Thought Summary] 情報の一貫性の検証
現在、提供されたシステム時刻(2025年12月)を背景に、OpenAIの歴史と事業活動(特に日本関連)に関する要約案の検証に注力している。案には2024年10月の評価額1,570億ドルや2024年4月のOpenAI Japan設立といった、現実世界の出来事と一致する具体的な日付が含まれている。しかし、2025年10月の「経済ブループリント(経済構想)」に関する言及は、通常のAIの知識カットオフを考えると矛盾や予測の可能性があるため、この構想の正確な日付と文脈の検証を優先する。

[Thought Summary] 主要な事実のギャップの特定
主な目標は、正確性を期すために価値の高い最新の詳細を確認することである。これには、パブリック・ベネフィット・コーポレーション(PBC)への移行状況、GPT-5やOpenAI o1といった高度なモデルのリリース状況、および報告されている法人導入数(100万社)の調査が含まれる。これらの詳細は、包括的で最新の要約を提供するために不可欠である。

[Thought Summary] 計画された検証戦略
これらの特定の主張を検証するためにターゲット検索を実行している。これには、PBC移行に関するニュース、OpenAI Japanの「経済ブループリント」を取り巻く最新の動向、およびモデルのリリースと法人顧客数に関する最新情報の確認が含まれる。この体系的なアプローチにより、最終的な日本語の要約が事実に基づいたものになるようにする。

[Thought Summary] 新しい企業評価額のタイムライン
最近の検索結果を統合したところ、現在の要約案にある情報を更新するOpenAIの評価額の推移が明らかになった。2024年10月の1,570億ドルの評価額は確認されたが、「現在時刻」を2025年12月とする文脈で動作する複数の情報源は、2025年におけるその後の2回の評価額を示唆している。それは4月の3,000億ドルと、2025年10月の5,000億ドルという大幅な増加である。この急速な評価額の上昇は、2024年の数字のみを引用している現在のドラフトに欠けている重要な詳細であり、ドラフトが時代遅れである可能性を示している。

[Thought Summary] 事業導入指標の明確化
要約案において、OpenAIの法人導入に関する重大な不一致に気づいた。ドラフトでは「100万社」が製品を利用していると主張している。しかし、検索結果のスニペットは、実際の数字が「100万の有料ビジネスユーザー」(議席/アカウント数)であり、100万の個別の企業(ロゴ数)ではないことを強く示唆している。この区別を確認する必要がある。「企業」を「ユーザー」に置き換えると、法人浸透の規模が変わるためである。

[Thought Summary] 確定した戦略的アップデート
検索により、2025年後半のいくつかの主要な企業および製品のマイルストーンが確認された。パブリック・ベネフィット・コーポレーション(PBC)構造への移行は2025年10月に完了したようで、この戦略的動きの確定した日付が得られた。さらに、「日本におけるAI:OpenAIの経済ブループリント」は確かに2025年10月に発表されており、推定100兆円の経済効果を含む、日本市場へのコミットメントに関する具体的な詳細が提供されている。また、2025年11月頃の「GPT-5」シリーズのリリースを指し示す証拠も得た。

[Thought Summary] 次のリサーチステップ
更新内容を確定させるため、当面の行動は不一致の明確化に焦点を当てる。「100万ユーザー vs 100万社」の指標を検証するための特定検索を行い、2025年の評価額の推移と慶應義塾大学とのパートナーシップの存在を決定的に確認し、この2025年のタイムラインにおいて利用可能な最も正確かつ最新のデータが組み込まれるようにする。

[Thought Summary] 最近の財務とタイミングの確認
要約案に記載されている最も重要かつ最近のデータポイントの検証に成功し、それらが現在時刻(2025年12月)と一致していることを確認した。具体的には、「経済ブループリント」に関連する日付(2025年10月)、慶應義塾大学との提携(2025年12月)、および5,000億ドルへの評価額上昇(2025年10月)はすべて確認され、最新の情報を反映している。

[Thought Summary] 事業導入と製品の妥当性確認
「100万のビジネス顧客(法人顧客)」という数字が正確であることを確認した。これは、ChatGPT for Workが世界中で700万以上のシート(ライセンス)を提供しているというデータによって裏付けられている。さらに、「Sora(Sora 2)」のような高度な製品の利用可能性は、現在の市場情報に基づいた一般的な文脈として想定され、最終的な回答の構成に進むことが可能となった。

[Thought Summary] 最終回答の統合
2024年の1,570億ドルから2025年の5,000億ドルへの劇的な評価額の上昇や、「経済ブループリント」の主要な柱(包括的なアクセス、インフラ、教育)を含むすべての重要な事実が完全に検証された。これにより、リクエスト通りに日本語で完全な回答を統合するために必要な最新データが揃った。調査を完了としてマークする。
最終出力結果(マークダウンエディタに貼って頂けると見やすいです)
# OpenAIの歴史と事業内容に関する包括的調査報告書

## 要約 (Executive Summary)

本報告書は、人工知能研究機関および企業であるOpenAIについて、その設立から2025年現在に至るまでの歴史的変遷、組織構造の進化、主要な技術開発、および事業内容を包括的に詳述するものである。

**重要なポイント:**

- **組織の変遷:** 2015年に非営利団体として設立されたOpenAIは、資金調達の必要性から2019年に「上限付き営利(capped-profit)」部門を設立。その後、2024年から2025年にかけて、非営利団体が支配権を維持しつつも、営利部門を「公益模範会社(Public Benefit Corporation: PBC)」へと移行させる大規模な組織再編を行った [cite: 1, 2]。
- **技術的マイルストーン:** 生成AIブームの火付け役となった「ChatGPT」に加え、マルチモーダルモデル「GPT-4o」、推論能力を強化した「OpenAI o1」シリーズ、動画生成AI「Sora」など、最先端モデル を次々とリリースしている [cite: 3, 4, 5]。
- **事業規模と評価額:** 2024年10月の資金調達で評価額は1,570億ドルに達し、その後の2025年10月には株式売却を通じて評価額が5,000億ドル規模に達したとの報告がある [cite: 1, 6]。企業向けサービス「ChatGPT Enterprise」等の有料ビジネスユーザー数は100万社を超え、急速な収益化が進んでいる [cite: 7, 8]。
- **日本市場への展開:** 2024年4月に「OpenAI Japan」を設立し、長﨑忠雄氏が社長に就任。日本語特化モデルの提供や、慶應義塾大学との提携、日本政府への経済提言(Economic Blueprint)など、戦略的なローカライズとパートナーシップを推進している [cite: 9, 10, 11]。

---

## 1. 組織概要とミッション

### 1.1 設立の理念とAGI

OpenAIは、2015年12月にサンフランシスコで設立されたAI研究機関である。その核心的なミッションは、「汎用人工知能(AGI:Artificial General Intelligence)が全人類に利益をもたらすようにすること」 である [cite: 12, 13]。AGIとは、経済的に価値のある多くの作業において人間を凌駕する高度に自律的なシステムと定義されており、OpenAIはこの技術が特定の権益に独占されることなく、安全かつ公平に配 備されることを目指している。

### 1.2 創業者と初期メンバー

設立時の主要メンバーには、サム・アルトマン(Sam Altman)、イーロン・マスク(Elon Musk)、グレッグ・ブロックマン(Greg Brockman)、イリヤ・サツケバー(Ilya Sutskever)、ヴォイチェフ・ザレン バ(Wojciech Zaremba)、ジョン・シュルマン(John Schulman)らが名を連ねた [cite: 13, 14]。当初は、Googleなどの巨大テック企業によるAI技術の独占に対抗する「カウンターウェイト」としての役割を 担う非営利団体としてスタートした [cite: 15]。

---

## 2. 歴史と沿革 (History & Evolution)

OpenAIの歴史は、非営利の研究機関から、世界で最も影響力のあるAI企業の一つへと変貌を遂げる過程である。

### 2.1 第1フェーズ:非営利研究機関としての始動 (2015-2018)

設立当初、OpenAIは特許や研究成果を一般に公開するオープンソース戦略を採用していた。

- **2016年:** 強化学習アルゴリズムの比較・開発用ツールキット「OpenAI Gym」および、AIエージェントの訓練プラットフォーム「Universe」を公開 [cite: 12, 16]。
- **2018年:** 共同創業者の一人であるイーロン・マスクが取締役を辞任。これは、自身が率いるテスラ(Tesla)のAI開発との利益相反の可能性や、OpenAIの進捗スピードへの懸念が背景にあったとされる [cite: 17]。

### 2.2 第2フェーズ:営利部門の設立とMicrosoftとの提携 (2019-2021)

高度なAIモデルのトレーニングには莫大な計算資源と資金が必要となるため、非営利の寄付モデルだけでは限界が生じた。

- **2019年:** 「OpenAI LP(Limited Partnership)」という営利子会社を設立。これは投資家へのリターンに上限を設ける「上限付き営利(capped-profit)」モデルを採用し、非営利団体の理事会が引き続き全体の支配権を持つ構造とした [cite: 12, 15, 17]。
- **Microsoftとの提携:** 同年、Microsoftから10億ドルの出資を受け、Azureクラウドプラットフォームを独占的なコンピューティングパートナーとした。これにより、大規模言語モデル(LLM)の開発が加 速した [cite: 15, 18]。
- **GPT-3とCodex:** 2020年にGPT-3を発表。2021年には自然言語をコードに変換する「OpenAI Codex」を発表し、GitHub Copilotの基盤技術となった [cite: 19, 20]。

### 2.3 第3フェーズ:ChatGPTの登場と生成AIブーム (2022-2023)

- **2022年11月:** 「ChatGPT」を公開。GPT-3.5をベースにしたこの対話型AIは、公開からわずか2ヶ月で月間アクティブユーザー数が1億人に達するなど、歴史的な普及速度を記録し、世界的な生成AIブーム を引き起こした [cite: 12, 21]。
- **2023年3月:** マルチモーダルモデル「GPT-4」をリリース。司法試験で上位の成績を収めるなど、推論能力が大幅に向上した [cite: 16]。
- **2023年11月の取締役会騒動:** サム・アルトマンCEOが突如解任され、数日後に復帰するという混乱が発生した。この事件は、AIの安全性(Safety)を重視する非営利理事会と、開発・普及を急ぐ営利部門との間の構造的な緊張関係を露呈させた [cite: 1, 22, 23]。結果として理事会メンバーが刷新され、Microsoftが議決権を持たないオブザーバーとして参加することとなった(後に辞退) [cite: 1]。

### 2.4 第4フェーズ:組織再編とAGIへの加速 (2024-2025)

- **2024年5月:** 音声・視覚・テキストをリアルタイムで処理可能な「GPT-4o(omni)」を発表 [cite: 3, 24]。
- **2024年9月/12月:** 複雑な推論タスクに特化した「OpenAI o1」シリーズ(コードネーム:Strawberry)をリリース。思考の連鎖(Chain of Thought)を取り入れ、数学やプログラミング能力が飛躍的に向上した [cite: 4, 5, 25]。
- **2024年10月:** 66億ドルの資金調達を実施し、評価額は1,570億ドルに達した。このラウンドにはThrive Capital、Microsoft、Nvidia、SoftBankなどが参加した [cite: 6, 26, 27]。
- **2025年の組織再編:** OpenAIは、従来の「上限付き営利」モデルから、より一般的な資金調達が可能な「公益模範会社(Public Benefit Corporation: PBC)」への移行を完了した(2025年10月時点の報道に基づく)。非営利団体(OpenAI Foundation)は引き続きPBCの株式を保有し、ミッションの監督を行うが、投資家へのリターン上限は撤廃されたとされる [cite: 1, 2, 28]。
- **評価額の増大:** 2025年10月には、従業員による株式売却や新たな投資ラウンドを通じて、評価額が5,000億ドル規模に達したと報じられている [cite: 1, 29]。

---

## 3. 主要な技術と製品 (Key Technologies & Products)

OpenAIの事業の中核は、大規模な基盤モデルの研究開発と、それを活用したAPIおよびコンシューマー向け製品の提供である。

### 3.1 大規模言語モデル (LLM)

- **GPT-4o (Omni):** 2024年5月に発表されたフラッグシップモデル。テキスト、音声、画像を単一のモデルで処理するエンドツーエンドのマルチモーダル能力を持つ。音声応答の遅延が平均320ミリ秒と人間に近く、感情表現や歌唱なども可能となった [cite: 3, 24]。
- **OpenAI o1 (旧 Strawberry):** 2024年9月にプレビュー公開、12月に正式リリースされた「推論(Reasoning)」特化型モデル。回答を出力する前に「思考」する時間を設けることで、複雑な科学、数学、プログラミングの問題解決能力がGPT-4oを凌駕する [cite: 4, 5, 25]。
- **GPT-4o mini:** コスト効率を重視した小型モデルで、GPT-3.5 Turboの後継として位置づけられている [cite: 30]。

### 3.2 画像・動画・音声生成モデル

- **DALL-E 3:** 自然言語のプロンプトから高品質な画像を生成するモデル。ChatGPTに統合されており、対話形式での画像生成・修正が可能 [cite: 12, 13]。2025年12月には改良版の「gpt-image-1.5」および編集機能「ChatGPT Images」が発表された [cite: 31]。
- **Sora:** テキストから最長1分の高品質な動画を生成するモデル。物理法則のシミュレーションや複雑なカメラワークの生成が可能 [cite: 12, 13]。
- **Whisper:** 高精度な音声認識(文字起こし)モデル。多言語に対応し、オープンソースとしても公開されている [cite: 3, 12]。

### 3.3 プラットフォームとサービス

- **ChatGPT:** 一般消費者および企業向けの対話型AIサービス。無料版、Plus(個人有料)、Team(小規模チーム)、Enterprise(大企業)、Edu(教育機関)のプランがある [cite: 32, 33]。
- **OpenAI API:** 開発者がOpenAIのモデル(GPT-4o, o1, DALL-E等)を自社のアプリケーションに組み込むためのインターフェース。従量課金制で提供される [cite: 14, 34]。
- **SearchGPT / ChatGPT Search:** リアルタイムのウェブ検索機能を統合し、最新情報に基づいた回答を提供する機能 [cite: 13, 35]。

---

## 4. ビジネスモデルと収益構造

OpenAIのビジネスモデルは、最先端のAIモデルを開発し、それをAPIやサブスクリプションを通じて提供することで収益を得る構造である。

### 4.1 収益源 (Revenue Streams)

1. **サブスクリプション収益:**
    - **ChatGPT Plus:** 個人ユーザー向けの月額20ドルのプラン。
    - **B2B向けプラン:** 「ChatGPT Enterprise」や「ChatGPT Team」。2025年11月時点で、ビジネス向け有料顧客数は100万社を突破し、ChatGPT Enterpriseのシート数は700万を超えたとされる [cite: 7, 8, 36]。
2. **API利用料:** 企業や開発者がトークン量(文字数換算)に応じて支払う利用料。Microsoft Azure経由での利用も含まれる [cite: 14, 32]。
3. **ライセンスとパートナーシップ:** Microsoftとの戦略的提携により、Microsoft製品(Office 365, Bing等)への技術提供を行っている [cite: 34]。

### 4.2 財務状況と評価額

- **売上高:** 2024年の売上高予測は37億ドルであったが、2025年には116億ドルから120億ドル規模に急拡大すると予測されている [cite: 1, 26, 37]。
- **赤字と投資:** 一方で、AIモデルのトレーニングと運用にかかる計算コスト(Compute Cost)や人件費は莫大であり、2024年には約50億ドルの損失が見込まれていた [cite: 1, 6]。
- **資金調達:** 2024年10月のラウンドで66億ドルを調達。この資金は計算能力の増強と人材確保に充てられる [cite: 6, 26]。

---

## 5. 日本における展開 (Expansion in Japan)

OpenAIは日本市場を戦略的に重要視しており、2024年以降、本格的な事業展開を行っている。

### 5.1 OpenAI Japanの設立

- **設立:** 2024年4月15日、アジア初の拠点として東京に「OpenAI Japan合同会社」を設立した [cite: 9, 13, 38]。
- **代表者:** 社長には、元AWSジャパン社長の長﨑忠雄氏が就任した。長﨑氏は日本のクラウド市場を牽引した実績を持ち、企業や政府との対話を重視する方針を示している [cite: 9, 21, 39]。
- **目的:** 日本独自のニーズに合わせたAIツールの開発、法人向けセールス、カスタマーサポート、およびルール形成への参加(広島AIプロセス等への貢献)を掲げている [cite: 39, 40]。

### 5.2 日本向け製品とサービス

- **GPT-4 Customized for Japanese:** 日本法人設立と同時に発表された、日本語処理に特化したカスタムモデル。翻訳や要約の性能が向上し、従来のGPT-4 Turboと比較して最大3倍の速度で動作する。英語学習アプリ「Speak」などで先行導入された [cite: 9, 39, 41, 42]。
- **導入事例:** 楽天、ダイキン工業、トヨタコネクテッドなどの大企業に加え、横須賀市などの自治体でも導入が進んでいる。横須賀市では全職員にChatGPTへのアクセスを提供し、業務効率化の実証実験を行っている [cite: 40, 42]。

### 5.3 パートナーシップと提携

- **慶應義塾大学:** 2025年12月、OpenAIは慶應義塾大学と包括連携覚書(MoU)を締結した。これは日本の大学としては初の戦略的パートナーシップであり、「AIキャンパス構想」の実現に向け、教育、研究、ガバナンスの分野で協力する [cite: 11, 43]。
- **政府との連携:** デジタル庁との戦略的協力や、AIの安全性評価に関する国際的な枠組み作りにおいて日本政府と連携している [cite: 44]。

### 5.4 経済提言 (Economic Blueprint)

2025年10月、OpenAIは「日本のAI:OpenAIの経済ブループリント(Japan Economic Blueprint)」を発表した。この中で、AI活用により日本のGDPを最大16%押し上げ、100兆円を超える経済価値を創出する可能性があると試算している。提言には以下の3つの柱が含まれる [cite: 10, 45, 46, 47]。

1. **包摂的な社会基盤の構築:** 学生から中小企業までAIへのアクセスを拡大。
2. **戦略的インフラ投資:** データセンター、半導体、エネルギー網への投資。
3. **教育と生涯学習の強化:** AIリテラシー教育とリスキリングの推進。

---

## 6. 課題と論争 (Challenges & Controversies)

OpenAIの急成長は、同時に多くの法的・倫理的課題を引き起こしている。

### 6.1 著作権問題

AIモデルのトレーニングに使用されるデータに関して、作家、新聞社(New York Times等)、クリエイターから著作権侵害で訴訟を起こされている。OpenAIは「フェアユース」を主張しているが、法的な決着は ついていない [cite: 13]。

### 6.2 組織構造と「営利化」への批判

設立当初の「非営利」の理念から、事実上の「営利企業」へとシフトしたことに対し、共同創業者のイーロン・マスクなどから強い批判を受けている。マスクは、OpenAIがMicrosoftの事実上の子会社化し、本来のミッションを放棄したとして訴訟を起こした(後に取り下げ、再提訴などの動きがある) [cite: 48, 49]。2025年のPBCへの移行は、この批判に対する一つの回答(公益性を法的義務とする営利法人化)であ るが、議論は続いている。

### 6.3 安全性と倫理

AGIの開発に伴うリスク(誤情報の拡散、サイバー攻撃への悪用、人類への存亡リスク)について、社内外から懸念が示されている。2023年のアルトマン解任騒動の背景にも、安全性重視派(イリヤ・サツケバーら)と開発推進派の対立があったとされる [cite: 22]。その後、主要な安全研究者(Superalignmentチーム等)の退社も報じられている [cite: 1]。

---

## 7. 結論と将来展望

OpenAIは、2015年の設立からわずか10年足らずで、AI技術の最前線を走る世界的なテクノロジー企業へと成長した。2025年現在、同社は「OpenAI o1」のような推論モデルや「GPT-4o」のようなマルチモーダル技術を通じて、AGIの実現に向けた歩みを加速させている。

ビジネス面では、PBCへの移行と巨額の資金調達により、GoogleやAnthropicなどの競合に対抗するための強固な基盤を築いた。特に日本市場においては、現地法人の設立や大学・政府との連携を通じて、AIイン フラとしての地位を確立しようとしている。

しかし、著作権問題、安全性への懸念、そして「人類の利益」と「企業利益」のバランスをどう保つかという根本的な課題は依然として残されている。OpenAIの今後の動向は、AI技術の進化だけでなく、社会全 体のあり方に大きな影響を与え続けるであろう。

**Sources:**

1. [wikipedia.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFw2rx54KuDkgjn8UPjj3GX1zxUR8Mi9ZT3h-Quy2ZFn7Q2aPzA-5Gg2zRn_UpoZZRUyzor3WoV23pnG_BovyL_FHqUQx4KHC2I7sBdcwUdEF8rlokiZRk1B4c=)
2. [openai.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFNFaVTAkDWNy8V5g_tQ5qDXsIrQLY88v423_SUjXSSBVUwHL3EHpKaIh251JkXkV1L5j7rBtBR2NUCp-QOPxUoCeJqOy-VZlJG5NLuoVQ4wfu1lS5jFwjRiEip2TF68AcgrI89vsk=)
3. [dev.to](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQE7qqqcpAGOpC6Lbma73tFdf14jvYmtC9Ghk1wrx67UcrMB8tTGnLrh5Zf4WwdHU8rw_CQA4CTZBpIMsfW9tNs6oc7KxNm5dWn5tm2yL3oCe3FhhpdLZqRxyVV6xIK-2Q5BzZu9zL9t1ZRJeaXhg8BNYabGgo4Fe_8d)
4. [wikipedia.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHykVvMIyrf4U2XzHLdoNyqwxToeCtPROoAXvUix6VtfUvQOfFNJcb1GuGL9vxQ3gQW0eRB9s_Cg465gccPBkAHwNWpD2wioBUguLWUhHBSE1aEzoldrYjaA9ECx5A=)
5. [techtarget.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQG4vSX4-StFHty5fuedPMTHVqWAuG8GvOekJqXxsvePjNEiUV_X8TCaTD8Q6m2qds9JnZpTC3qWkDHVt8W4px9jynijTbFOn-vAitIgiEyU6ZnMzL2FQkic8JG3RtJmM42i2HWLj-MiiZYqPZODp_LcxhRm3TbAX2PWMhMG5mpP2ZBZUj83Tprn-u20HqJw4Q==)
6. [theguardian.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGs2n3PVouhyKPEVTbnD0ePgf021cheE0dpZMBxJ9rlr0m__7Al0pmSE3k_jij9mSJUQzkLVTfKVTMaVZGVdsrgzUgbnTwLBecqqVo7KdI_D1BWn5JL7qvmyOVuw8qAzBvTxKh229hQxbh4bWXGdThXJQuxuzbTaOZ_1zLK0WLiPeMQY22hDSMfXZ3dn_z-8ytQwozxCOSK4Qk=)
7. [chatai.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGlAwFX3izK7b6lunxNw-S9UsaATVvIm4W8k3IIZORSYUcuk_zCUXnCwpHBx751_U4rxMYvBiOwyEiTdCRIGN7g_RgBz-bOqL1pdkRi1ZXWnQoPSS5excNaX9Sf7GqzOFAzOxFxARDtYdFgx7Pr83WVacPgzuGrm9sO-8Hhg49xgTwrR-sZrMGXPg1skhD88dqsH_zxLC6dqWkqjXbF9w==)
8. [techstartups.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGFpXYUVdM7VJr3bashFGPHYYaaTPbzzCjC6BfiYVRivltPXMgiyMoPAZGhHCkFYYM7U97ShZOpN3kNYpR5KGAwmndGVMaVEvFAq15iNgnqP2igKjw47HhTafjgu7l7ouf8eQD1cBvS2Js7RBjU1NvikjlN7_MDRXrLU2g_rZ47uLeV-47g1Nn4pA_xdVl5sm1OnRxjLialeckCpuTL2TPytbjaBLcZSzYdJsJL7uqoa1R6peoCVvqCcwsRDrWLYA==)
9. [weeklybcn.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEQPDkB7QxdyHihJuh1qThwF4v6PU1z45qTH5ME2aLxxBZWZYi3-YWYdJRLBQ44fWhf4ynTU8Nc8uQHj2mPmwSW0ffJ0n4DE8oHReHy7BKVY1DGm8dHpYxV_F3bf5nscQOR6MhQoqm_pVIPLbX8QGi-9h0mt_Mevus=)
10. [openai.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFbZ9ZDyqjxjnxR7EaYVnZr18xXzhIU-ZG4hYPUiv2woi5IBIW674ieQzXbAgvSuTgbK9reU7T84EMMq5xITYBBJETLrlqhY5NdjDwDwC12qdjUkOlxDvYCyh-DUztWkQ5TmtVaigNa851mvuUgcg==)
11. [japantimes.co.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQF0pOKG9YpPhj2zUR3E4TPaFFt1lR6UU_mEyymm93o7bl6Nq3w5sEFEB0pHdLISnIOMgTC-tziI42LYQ4fCLKMAv8mZrFj2uBc-AArjbpRK7rnAPdMkodyzxNXgAUht3vtkPv9xLPkoHyHYzxUAQLQ47Tjnew-jbuc=)
12. [skygroup.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHb2nZdSJuw1tEnPUEYketQwkjbZ9UiuyzPR-oWCE6NlUckZzPulkukgK9Sk3NHUlnlkU5BI-CbeR9KMugFZHmym6aOrAorKOlCzrmHJdGgu04sMoPcsaXoKqLkVkaF0XIO)
13. [wikipedia.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEQQ8a1tIoP5nheIwzNbTAonuPWBndy7arhRH3z6EPs3YPOc8kaqmfk2SOpVjA6kLUqWaRZiwacX_vv4dBctw9XItGUDAynkXvNDe4tuCAJdAMeqMA8ug7gifU=)
14. [businessmodelanalyst.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQH-xj4hkT_-MaZWYVBoESU8SXpIrYVDB3H9fhVl7VP4mmMWSjU0dlWtlm6mQdRaWjUqIgC4y__uWJ0nMlJRJWla86gz806DOareMysTHDc46EL_1OdTeFBWzzsQQBqS70ZV_BVjOUwiyc4iqrWG)
15. [substack.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGtEL-4U9cRlCvdE1_rTsETBLVZoaO4NY87o4ZYUd8HWL7Ywh_YjOyVbqwMIr9HKNfugPctssrl3jT6yENvYpjDM4knUoJkkl4JxosnFqRei38VvvQyDsb5vTqtNnqzvRe16L5kX7JvXGR4TYRzPnMbkbGKUD41XxO8OnzI)
16. [note.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFGguWhGd5T8FKy9zNYIV34XKbwmJJte0SepB9fRHjWiQTcAx4Fn9I9zY04TUDMyDHXK4lfbeO0WspSoSNhv5Cx7NUHQy9lF8w_8R5m3UCAqNYscr8aXpwv-4HX4w==)
17. [benkyoenkai.org](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGGH3SynHqFXivfwL2__s3OHYLsvO-L8oHaTWCpBecaqD_8d9bO8stXQCKE9YjfgsybIw2o1CQASwBQ5GVwx7cBwXBZrKcRW3EICRZ1-gTwI_JTiBFHJuoy)
18. [hatenadiary.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFITcBmURlaGNLs7rAwBbhymqqRvF8e-6uAPVPvEO5OeC72h_WF5xGPug-rwQnO6TUaXtvXAZzkgp5l8iTDysQlZL3k4qNmSafrs7dXjFJgkmLcNL4tSmgH6VTBHjF7Aq_8m79-PrfeHVunTwd-1AXe)
19. [issarice.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGoWuYmEVaWcRRyT6O7XDAF8eQiStaUKY8jM0SCAEryn1daTOoZTyRBqRp52amAowy-VkAGOLEXn11mUN1C2DpInq15ZPJV50vuMAK-Pxsbma4oM8YpkvpBA30gfwcTPes3_wpd_EjyDygT89o=)
20. [artificial-intelligence.blog](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQF-6J0L1AtrZpYgZSUvjXkyv7EfXGGrfV5-25sQGm2HT5c6vzpLUVZ-tgXa8QCjwGhW1e3mw7T8Z35V4UO1SeMaptlf0jHFI3hdHrPiv7itFMfMr_0M67_Eg3MD9HgRBmMramLhvLCsfI12SKkaKDQLMuG5wabB)
21. [ascii.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFna_p0X6OI1uQ-Hc-yQOCyq9LUgi3TcC-MgLOjumESDsTYPFHLqc4PzPTHSw6hKkqrNzgwUZRXU5g60aj_i4ISo6pIyDhj2MsUvoL2or_o_e1Z3AzbEQZWLMogGnjZQQ4=)
22. [internationalfinance.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGNh6SSqZTYtderEvzztb_AGZIoEmmZrVKeUA42uwEePO1ecJH1caxp_kHTQ7abLHA6CYd8KKsV7KJ5jvXqjBNUDGXfBkE5zTO3FbQSFYIoTibSgInpCJaaM9VV7M65y2nCUvXeQ2iVWm6lG0GpUOT7LMHsxvAqdQDnVpqJr9qQENr1KKWpcIRj4fmmyrxuiRPPECX5uDd6lEedJaPmTQ==)
23. [raconteur.net](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEgpl0XiTSFrHpY1QWzKVfmK_8tJ_mMTI-SQoGi3YCx_b5YDgvL5z-einOqpGED50J0NiuzpP7dRM72W5ZC_ZSdBjm4joipEy5O9mwZxprsUFP2i42lnb9LTC2QhSSyn766eSWvByEw27yQ8Om97qYR9z22)
24. [medium.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHUX4IgZ4RKIf7ghUu-EJSJ8h7f3B72vJjXMtxQSUI0kPewRdpDKlSulSf1uN9zxPuMuutyF7t1wP_ql-Gw23fipWCcW5TAOmJazpW46FEwCv4I0hoUeNeAj75wzFtapr7iHpqH2o7NfB4NQPvDYiMxfiL42FU=)
25. [botpress.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQG71C8TZxldYzt5Xj8ya_UxR7jos9VfNAFaC-mtwwrEM8rOOorccfCyDnHX-nJfv0QQpgH6WEQWcgDRM-NY3wL37IbLqx0N8_hetmCjyDZJoubaozZ3bdpoVg==)
26. [siliconangle.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEtDsN2LgBOvF7ZKwRpQPdEPvPnnXv7UAM_si3Q39l-1_iiWJJ2t0qIY_w3L-skKblb7oMRJGqiRoVTEtheahUTWLijXadHGvmD263DgwH1B489i_4vJiP_kSKD4gIk9BZA7E7Cv_XLBqziyQXuKoy8lAfY773Ibevq0lB3lBAzMHjSP0dOwVy2QlpeEa8gJG6e)
27. [latimes.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHUS2doi_oRwxduSat6lew1fpwoB7Q-IpM9DEZDMN24p4pZLYd7NjmPCazIj9rmseMDIMDZ8rFzd5ViFIEpd8nWBGZcbv005mxtdMc9-PKCAhh1CEn-wIfWh8dirMCBYr7z3THw5bVcDVMw4tkCSiVoW5TNmV2IO3KibR-LYOGnaIZllyJXZe4r39PIQ8q49PgImC-Ro8j0Ft_eXEyp3U0BrpioUmXp0BItr-lOhg==)
28. [builtin.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQH0tbTGwyo0Ti6yEYB3wVQRiPiNQdooieHhE0wU2cNrhNO8mIw08nuepn-dXFjnr1CbM6ANgkhX8fPT-GlLICe78N2t8RdzggeSY_VsqODjSL9EMYfzsqRo0WkkDgv4U9lJTmBe1AvgNQoLE0NXi7eMYA==)
29. [medium.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQH3U-iqPb3NfYEFydsfnuIvMWmUWyBvJtJ-gV1uVjyOGBoJzWrbwjbZ14c0jUuxIwOw5rSfSoWcoacyiNq6A4vQcPaG3eszJuneFu0ggF-kzvinPg6k4YVoY-GEF3G75tOzooM3ERzqnAQqDt3qAOa6TClf9Oox18Ztd_HB48Aq5QOYjstqrzUd4c2c6Io=)
30. [ibm.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEqeNtOVJumiKL6DdElP2uYnsvSLcZZFrJ14s5Kz4gVFMZE8Ma0ebNac4Auoz5B7PKpsmGpkmXn3-6ZfInPQlSCEmFU71HwDc3S9LcDiBAdjLuJRMDvGPs8QFwe-yw=)
31. [gihyo.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGFlHoRAVyusuk3IVlj7Sl6Mj3LjFon2HgdSRnOJQzyC7FbTc8f3f4eU-JClq5DmLJ3EZ9e7Z_mCRfvKgClCK8LYtsI7JUdgP96nitXEVBFuls3J2bK5x_qqKBURbXmEuqm-pfk13QpVLtuxw0AlpYu4hjsdiA4pA8=)
32. [chatlab.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGQn9aFJnBEx9JqwejqQxQrAEjIYxZbEWfbflNlhPzh-rk4QdPUQmbeCkGe-Vh8_tGVNJQLxwAtd9AyAXae2BfPNtd4m5fvqtwjU37cj5Xbr6y16EaTzIdIBgK9B2dd2GL0fZjfaGhvD04ICtukcUY_2PuhG4rXcrqnkZ6pOPkr)
33. [bloomberglaw.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQH5DM3-FuhA9I2wui-rXWwQwreLh-uCG2oJ3E1q3sijgZtfyhzKVqFClALs8yl27B11j416kOR2AyuNxQDCpxTXaZf3en_D5lIk8qq6qLUzB-M6JlastVFUKXlNT-RCyJj8fMO7tweTa12pKGcnOmwmlb0icloxPSECtYQKNgjUG8bVuN86VrT0IY-Ma8DPF7JslmFv-ROM1FFvv2fwLIJQP9b7)
34. [coda.io](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEUNI4ycqMoxE67hgZxbvbY3U3cEhd-45fQZRX-Od9Ig68vMcHc43HUlBsj-217qgSxqv4aqOIrSQGIqD6ZgHl7MR1wAf9ktvob1QhmiyjCQSsehZqAg1AfwTjjSIXAhOsXOKbsj4im53PjgLDoVddIGaAGobkqz4IveeefeE47cv3QgyI=)
35. [techmonitor.ai](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFQxf6rK45RAlWp_hDG7C-OBme9voOMcamYpDz-pK6z1f-2uWtJJ6O8eAVkNx1xz1CmBt-9wi7Gyb0oOCH7gbSAwKhLS3lq0VywYCPiwDe_O3cirMwe2RUEklpUaz6DjOOCyOtkw4OYxvNePdWh3jzpfdrqoPA_NekssZ9C5Rip01I9RilOQSA6ZqBRTaSv078mOvXJwkyUD5Yl6v_6UCrgLRJUV3TayK8rZVNH3BvQj0BmdLCRB7cUM5ycE1fHDQ==)
36. [ledge.ai](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGI82bjSUuPMNQ-jXNHQHtN8dXBoDGceu3wVAgEZTUc7wsU4Ft_QbnRGCOdnhq8Xu_EKU3BVb_Kv2CA31FAiPwW894uvcUU8yi13-8HE8bxqsCnl5hDsbDC__q1d7CVnLBUu4bA2z63VZCYMXH-PBUI)
37. [benefitsandpensionsmonitor.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQE272ol8vCqCpRlT7hoK3jvle8dwTVPggQds5D2dGTTyx-6YkJN_H8gaSmxTZKWYZ8CB7DxXfXMB4ou24bQosHZd6wlo3dQMXnWXjzP06JhOT8m5UnrzdPLE0htwTHCzxXK6LbDQyus1k3SzcLAPwQQkuLlkg_uF4f7Dv2nvBB15MLriz_OWs6BCleQtH6EhXRx2KP6HZvGm6axjueZMLiR2R6cB7GNjiFbeSHoIPljnBYCz7ZI9IotkHTzZz4OJPBla7DpE2IF)
38. [youtube.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGBXKSo6OJcTMcMcAoWdl2ODtlF-7GAVExIlrFYJ_HaArRZ0ruEvehaeuJjHBmQ7KorYRwXdonq0dz2vSbZUiTgmAjgjmTp9p5OPZzvAxKpNa3UX24NUXOs-6lrbVRmj_NO)
39. [impress.co.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFWIZT3eC0v-AEWbv3swRQYGK4wXQRgHrRbUuvmLH3TY_4XR1xn43beCIOiwpBk75oq-pcJTZID2Hwpr9SsRQlOFyCI4fS7U5m96lv4uKHEkRAuSLvsMwA2ZoqxMrWo7du9hLiPwGoq4WkJTpcAaUA=)
40. [ledge.ai](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQHAkDboKjdeGolm-Q_5Q-iHHoH7Z4uzhs7jgYGqB-G4G5OE4bulouJ09W28hdufl1Ghg9k2_vgcUBZn_E0PUpJB1WKrtH4dtzY-9YmPzfSnGrtH89kpRiTrquX0SQ5LaFefwHfZC95qHu8=)
41. [chat-gpt.school](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEuIsBVCZxDd2ca1zCxXH8cD9g3qAoepDVzmdfxhYsAXJuVa1frW3y7rb1vQ-kVLiD3gkveqlKcFfPvXaVLC2XqoR472tpyYgF663lfAslY0SirMCbvhUT8h_iAQ-w9ClCbshoMDR6GDMpH6O9xqiaTQAPwm9DVb5KKBhEwWfD3uXnNq8lJF58zd1sf)
42. [openai.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQERwWhycKEEEBoO5KOn2ZZghd494YyR-lOEOpKU_dTeHn1YL6p-Y2-cMghp4UV3DP6OBdBjjXPgQ7FtwfwlAGeCauIL04Sbm2OfDbCF7Td3sAYtRI96AcGrEoGKcCx3DyySj5zyvZTzww==)
43. [keio.ac.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQEDYIuDzPqhFKrW3S-2rjiYQRAxF_2Sc3olBB2n9Qu6FwX8Fld6MfSTBEOkkXiykC64UsVUgU1wAo4zC7FiqdTbLeSY-CMKmMygX41ozDS7LUhkM9_xNJbZpueQ3icFAvvNzSMnBog5jiEmrMiJRbZxNLdRQSM=)
44. [openai.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGgDWX2ppAzl1_5-EEwFARKMhBIS35wwBhRYGqh_xfdllhlF6BfD7PHq8lQRihnYQD9EVPUxcxIRSgQSzfYucW2plb-MX7BFDbYzZL_hA1a4iUOE6prl4rLgKiRULE9gaxqEjIg1oiKyCCfCfs8QU4gxqyXG4lfFn78fvHQYNCio95j5o6VevrqpoQ=)
45. [impress.co.jp](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFtAbz7ZOnKqpKCFGrI2n3tBTsBzZzIdFop6qcfLh4ijFjWg9S5qVG3MTW3tZDOrLHfJxuIvbhR6d30gOANSUOIzCzCow2rj6ptdVP0xEm7wwH6tstZP38NJATMOLoQEINx4otHiII0Gsmaf6Y=)
46. [openai.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQGf34TsQPgiXhh9920fDag8YFQRxbIfZBJ3dI8HUQLadtJ3kBQy3tLNH5tEqJXafcT95DLP0lUxgPoxyxBk3BP_EkvKhMvzCUgJFe6zOTXEMjD3eernZqMKAx69lkacAUw350lBs9biIQ==)
47. [techinasia.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFLZ6Sy-mAy4d95cTKaTyhF4X_fKMGWTVrzNcu66olKmRZTtBxpdLjkpcyDJGDLqvTOfigvb6xdGuarfvry6shyc-KVnfeO1FGZtrHZBecsI7zEJOyP_qGrvwnebo2wZW6dm52b6JhhcVORQWoKik3ddvbdrywjwak4ednn1AJINXJ1CFYgAGoiHNoUZnwF6uNy)
48. [siliconangle.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFCkiLnsO5VMIci71rf8Y5acdTGggw-1HT4qfmguPaxZOIenYaT6G5kYHaA-TAWdRhrSOT8xWU8Y36f2ay4hxs4YMMit4dbt2NffaqdsLw9MMnejsif2LIMCSk_61RbboCCJvFwo5Qjw7Sd4kUXkwKMwcStMuVOUbT8jlwfjAOkqtG_zLf_Vb4ItPuU4-M8Aj3wzco1LH4=)
49. [youtube.com](https://vertexaisearch.cloud.google.com/grounding-api-redirect/AUZIYQFIVwOolCWm8NS-0iYTZUIYD0u9fWAl9K7iSyVEmh4xEC6B6bB4C9Jk6lSYy5a9_UIisPMOHEAMjs75nZdMYMky6Owq2s9SXx2dXCdLHBTGAUF7NXUF8FIfEa87OUC4XcHh)

*)思考過程は英語で出力されてしまうので、日本語に翻訳したものも添付

こちらも分かりやすく、かつ詳細な出力が得られました。一点気になったのは、最終出力にはGPT-4o含むそれ以前の情報しかなく、2025年12月現在の最新モデルであるGPT-5.2などの情報が見当たらないことです。思考過程を読み解くと分かるのですが、調査の過程で「GPT-5.2」というワードは得られているものの、最終出力を作成する過程で省かれてしまっているようでした。うまく情報を引き出すにはユーザからの依頼内容を工夫する必要がありそうです(「最新の」といったワードを付けるなど)。

思考過程の確認

さて、この出力はどのような考え方で作成されたのでしょうか?思考過程をいくつか抜粋して見てみましょう。

初手としてまずは主要な情報について幅広く取得を試みます。

調査範囲の定義

OpenAIの歴史と現在の事業活動に関する包括的な要約を提供するため、調査を開始する。
設立の詳細、非営利から「利益制限(capped-profit)」構造への移行、主要製品のリリース(各種GPTモデルやDALL-Eなど)、Microsoftとの重要なパートナーシップ、および2023年のリーダーシップ交代劇といった最近の組織的出来事を含む、主要なリサーチ領域を概説した。
また、APIサービス、サブスクリプションモデル(ChatGPT)、SoraやGPT-4oなどの新展開を網羅する現在のビジネスモデルについても深く調査する予定である。

次に情報収集の戦略についてです。「日本語でまとめて」と記載したのが効いているようで、日本語での検索及びどのようなワードで検索しようとしているのかが伺えます。

情報収集の戦略

当面の計画として、「OpenAI 歴史 タイムライン」や「OpenAI ビジネスモデル」を対象とした一般的な検索を実行し、基礎的な理解を構築する。
最終的な要約は日本語である必要があるため、当初から日本の文脈や用語に関連した情報を収集できるよう、「OpenAI 歴史 事業内容」といった日本語の用語を用いた検索も並行して開始する。
初期検索の後、2019年の営利化への移行や2023年の経営危機といった特定の事象に焦点を絞り、統合内容の堅牢性を確保する。

ある程度全体像が見えてきたところで、「組織評価額」「ガバナンス構造」といった特定の内容について理解を深めようとしています。また最終出力には出てこなかった「GPT-5.2」というワードが登場します。検索結果として「GPT-5.2」という情報を得たが、ここではそのようなモデルがあるかもしれないという憶測に留まっており、追加調査が必要であることを述べています。

知識のギャップの特定と次のステップ

全体像は明確になったが、調査の深みを増すために重要な詳細に焦点を当てる必要がある。
具体的には、「利益制限」構造の正確なメカニズムの検証、最新の組織評価額(約1,570億ドル)の確認、および2023年の再編後のガバナンス構造の明確化を行わなければならない。
さらに、検索結果の中に「GPT-5.2」のような将来のモデルに関する憶測に基づいた可能性のある情報を検出したため、誤情報の混入を避けるべく即座に検証が必要である。
次回の集中調査では、これらのギャップ、特にOpenAI Japanの設立と目標について対処する。

以下では最新のプロダクトに関する調査を行っています。ここでも「GPT-5.2」といった最新モデルの情報が得られています。「知識のギャップの特定と次のステップ」の箇所では「GPT-5.2」 というモデルがあるかもしれないという憶測をしていたが、ここでは事実として結論付けていますね。(ただその場合、なぜ最終出力に「GPT-5.2」というワードが出なかったのかは不明)

最新の製品リリースの特定

検索結果は、2025年中に製品ラインナップが大幅に拡大したことを強く示している。
具体的には、2025年11月の「GPT-5.2 Instant, Thinking, Pro」のリリース、2025年6月の「OpenAI o3-pro」、および「Sora 2」に関する記述を確認した。
これらの製品は以前は仮説上のものだったが、シミュレートされた2025年12月の文脈内では事実として扱い、同社の急速なイノベーションの軌跡を裏付けている。

こちらも「日本語でまとめて」というワードが効いたと考えられ、OpenAI Japanの設立について、そしてOpen AIが日本に向けて発表したAI時代における方向性を示す「経済ブループリント」についての情報を得ています。

日本特有の詳細への焦点

長崎忠雄氏が率いる2024年4月のOpenAI Japan設立に関する基礎情報を得た。
また、日本語使用に特化したカスタマイズ済みGPT-4モデルのリリースについても確認した。
最終報告を包括的なものにするため、日本支社に関連する2025年のマイルストーン、パートナーシップ、または導入率を明らかにするための最終的なターゲット検索を計画し、事業概要のこの部分を深掘りする。

情報の一貫性の検証

現在、提供されたシステム時刻(2025年12月)を背景に、OpenAIの歴史と事業活動(特に日本関連)に関する要約案の検証に注力している。
案には2024年10月の評価額1,570億ドルや2024年4月のOpenAI Japan設立といった、現実世界の出来事と一致する具体的な日付が含まれている。
しかし、2025年10月の「経済ブループリント(経済構想)」に関する言及は、通常のAIの知識カットオフを考えると矛盾や予測の可能性があるため、この構想の正確な日付と文脈の検証を優先する。

その後もいくつかの調査が行われ、最終回答となります。

最終回答の統合

2024年の1,570億ドルから2025年の5,000億ドルへの劇的な評価額の上昇や、「経済ブループリント」の主要な柱(包括的なアクセス、インフラ、教育)を含むすべての重要な事実が完全に検証された。
これにより、リクエスト通りに日本語で完全な回答を統合するために必要な最新データが揃った。調査を完了としてマークする。

合計18ステップのイテレーションの中では以下のような流れで調査が行われていました。

  1. 調査対象について幅広く調べる
  2. 1で得た情報の中から深掘りすべき情報を特定する
  3. 深掘りする情報に対して、追加の調査 -> 仮説立て -> 検証調査 -> 結論付けを行う
  4. ユーザからの依頼に対して回答するのに十分な情報が集まるまで2、3を繰り返す
  5. 最終回答の作成

人間が調査する時とまさに同じようなステップで行われていることが分かります。

実行時間とコスト

最後に実務で使う上で重要な実行時間とコストについて見てみます。
この例では実行時間は4分23秒でした。なお公式ドキュメントには

ほとんどのタスクは 20 分以内に完了します

とあり、おそらく複雑な調査になると実行時間が伸びていくのだと思います。
また、トークン数とコストは以下です。膨大なweb検索の結果をモデルに入力しているため、Input Tokensがかなり大きくなっています。合計金額は$2.35(執筆時点のレートで365.55円)であり、それなりにコストはかかってしまいます。

Total Input Tokens: 506414
Total Output Tokens: 27064
Total Tokens: 533478
Input Cost: $2.025656
Output Cost: $0.324768
Total Cost: $2.3504240000000003

まとめ

Gemini Deep Research Agentの出力結果とその思考過程、そして実行時間やコストについて把握しました。出力結果は読みやすく、かつ詳細である一方以下の点は注意が必要です。

  • 数百円程度のコストがかかる
  • 実行時間が分単位
  • コストと時間がそれなりにかかるため、結果がイマイチだった場合にユーザからの依頼を修正して何度もやり直しづらいため、最初から依頼内容をより具体的に伝えた方が良い

私が所属する株式会社Sapeet AIソリューション事業部では、情報検索エージェントの開発などを通して、お客様の役に立つサービスを提供しています。
もしSapeetにご興味をお持ち頂けましたら、ぜひこちらの採用サイトからご連絡ください!

8
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
8
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?