Google I/O '25 Keynote
https://www.youtube.com/watch?v=o8NiE3XMPrM
Google I/O 2025の基調講演では、AI、特にGeminiモデルファミリーの目覚ましい進化と、それがGoogleの製品やサービス、そして私たちの未来にどのような影響を与えるかが明らかにされました。本記事では、発表された主要なアップデートを体系的に紹介し、その技術的な背景や応用例を、IT分野に関心のある大学生にも理解しやすいように解説します。
目次
- はじめに:Google I/O 2025 基調講演の概要
- Part 1: AIモデルとインフラの進化 🧠
- Part 2: AIの普及と研究プロジェクトの具現化 🌍
- Part 3: パーソナライゼーションとSearchの革新 🎯
- Part 4: Geminiアプリと生成メディアの進化 📱🎨
- Part 5: AndroidエコシステムとAIの融合 🤖👓
- Part 6: AIによる社会貢献と未来への展望 ✨
- まとめ:Google I/O 2025が示すAIの未来
はじめに:Google I/O 2025 基調講演の概要
Google I/O 2025では、「研究から現実へ (From research to reality)」をテーマに、AI技術、特にGeminiモデルの進化がGoogleの製品やサービスに深く統合され、よりインテリジェントで、エージェント的で、パーソナライズされた体験を提供することが強調されました。本記事では、これらの発表内容を詳細に掘り下げ、AIが私たちの生活や社会にどのような変革をもたらす可能性を秘めているのかを探ります。
Part 1: AIモデルとインフラの進化 🧠
サマリー: このパートでは、GoogleのAI戦略の中核をなすGeminiモデルファミリーの最新アップデートと、それを支える最先端のAIインフラについて解説します。モデルの性能向上、効率化、そして推論能力の強化が、AIの新たな可能性を切り拓いています。
Chapter 1: Geminiモデルの最新動向
AIの進化は、その頭脳となるモデルの進化にかかっています。GoogleはGeminiモデルファミリーを通じて、この分野で目覚ましい進歩を遂げています。
Section 1: Gemini 2.5 Pro: LMArenaリーダーボードを席巻
コアメッセージ: Gemini 2.5 Proは、多くのベンチマークで最先端の性能を達成し、特にLMArenaリーダーボードの全カテゴリでトップを獲得するなど、その卓越した能力を示しています。
Gemini 2.5 Proは、Googleのフラッグシップモデルとして、その高い知能と汎用性で注目されています。Eloスコア(モデルの相対的な強さを示す指標)は、初代Gemini Proモデルから300ポイント以上向上し、特にコーディング能力においてはWebDev ArenaでNo.1を獲得するなど、目覚ましい成果を上げています。
Eloスコアとは、元々はチェスなどの二人対戦ゲームでプレイヤーの相対的なスキルレベルを評価するために開発されたレーティングシステムです。AIモデルの性能比較にも応用され、数値が高いほど高性能であることを示唆します。
Section 2: Gemini 2.5 Flash: 効率性とパフォーマンスの両立
コアメッセージ: Gemini 2.5 Flashは、速度と低コストを重視する開発者向けに、ほぼ全ての側面で改善され、高い効率性とパフォーマンスを実現しています。
Gemini 2.5 Flashは、その高速性と低コストから開発者に人気のモデルです。新しい2.5 Flashは、推論、マルチモーダル、コーディング、ロングコンテキストといった主要なベンチマークで改善が見られ、LMArenaリーダーボードでは2.5 Proに次ぐ性能を示しています。特に、トークン効率が22%向上し、同じ性能をより少ないトークンで使用できるようになりました。
Section 3: Deep Think: Gemini 2.5 Proの推論能力を強化する新モード
コアメッセージ: Deep Thinkは、Gemini 2.5 Proの推論能力を極限まで高める実験的なモードであり、並列思考技術など最新の研究成果を活用しています。
Deep Thinkは、Gemini 2.5 Proにさらなる思考時間を与えることで、より高度な推論を可能にする新しいモードです。USAMO 2025(非常に難易度の高い数学ベンチマーク)やLiveCodeBench(競技プログラミングレベルのコーディングベンチマーク)で優れた成績を収めています。この機能は現在、信頼できるテスターを通じてGemini APIで利用可能であり、広範な提供に向けてさらなる安全性評価とフィードバック収集が進められています。
Chapter 2: 世界をリードするAIインフラ
AIモデルの能力を最大限に引き出すためには、強力なインフラが不可欠です。Googleは、この分野でもリーダーシップを発揮しています。
Section 1: 第7世代TPU「Ironwood」の登場
コアメッセージ: Googleの第7世代TPU「Ironwood」は、思考と推論のAIワークロードに特化して設計され、前世代比10倍の性能向上を実現しています。
Tensor Processing Unit (TPU) は、Googleが開発したAIアクセラレータです。最新のIronwoodは、1ポッドあたり42.5エクサフロップスという驚異的な計算能力を誇り、AIモデルの高速化とコスト効率の向上に大きく貢献します。このインフラの強みが、Googleが高性能なモデルを効果的な価格で提供できる理由の一つです。Ironwoodは、今年後半にGoogle Cloudの顧客にも提供される予定です。
エクサフロップス (ExaFLOPS): 1秒間に10の18乗回の浮動小数点演算を実行できる能力を示す単位。非常に高い計算性能を表します。
Part 2: AIの普及と研究プロジェクトの具現化 🌍
サマリー: このパートでは、AI技術がかつてない速さで世界中に普及している現状と、Googleの先進的な研究プロジェクトが具体的な製品やサービスとして結実していく様子を紹介します。AIはもはや研究室の中だけでなく、私たちの日常やビジネスに浸透し始めています。
Chapter 1: AI導入の加速
AIの利用は、個人から企業まで、あらゆるレベルで急速に拡大しています。
Section 1: トークン処理量と開発者数の飛躍的増加
コアメッセージ: Googleの製品とAPI全体での月間トークン処理量は前年比50倍に増加し、Gemini APIを利用する開発者数も5倍以上に増加するなど、AIの導入が爆発的に進んでいます。
昨年同時期に月間9.7兆トークンを処理していたのが、現在では月間480兆トークンを超えています。これは、AIがより多くの情報処理を担うようになったことを示しています。また、700万人以上の開発者がGemini APIを利用して開発を行っており、Vertex AIでのGemini利用も40倍に増加しています。
トークン (Token): AIモデルがテキストを処理する際の基本単位。単語やサブワード(単語の一部)に分割されたものを指します。トークン処理量の増加は、AIによるテキスト処理量の増大を意味します。
Section 2: Geminiアプリの成長
コアメッセージ: Geminiアプリの月間アクティブユーザー数は4億人を超え、特にGemini 2.5シリーズの利用が活発化しています。
Geminiアプリは、GoogleのAI技術を手軽に体験できるツールとして、多くのユーザーに受け入れられています。特にGemini 2.5 Proを利用しているユーザーの利用時間は45%増加しており、AIアシスタントとしての価値が高まっていることが伺えます。
Chapter 2: 研究から現実へ:革新的プロジェクトの製品化
Google I/Oでは、長年の研究成果が具体的な製品やプラットフォームとして発表されました。
Section 1: Project StarlineからGoogle Beamへ:次世代3Dビデオ会議プラットフォーム
コアメッセージ: 3Dビデオ技術「Project Starline」が進化し、AIファーストのビデオコミュニケーションプラットフォーム「Google Beam」として登場。より自然で没入感のある会話体験を提供します。
Google Beamは、新しい最先端のビデオモデルを使用し、2Dビデオストリームをリアルな3D体験に変換します。6台のカメラアレイとAIがビデオストリームを統合し、3Dライトフィールドディスプレイに相手をレンダリングします。ミリメートル単位のほぼ完璧なヘッドトラッキングと毎秒60フレームのリアルタイム処理により、まるで同じ部屋にいるかのような感覚を実現します。HPとの協業により、最初のGoogle Beamデバイスは今年後半に初期顧客向けに提供開始予定です。
また、Google Meetにはリアルタイム音声翻訳機能が搭載され、話者の声やトーン、表情まで再現することで、言語の壁を越えた自然な会話を支援します。この機能は、Google AI ProおよびUltraのサブスクライバー向けにベータ版として英語とスペイン語で提供開始され、今後数週間で対応言語が追加される予定です。
Section 2: Project AstraからGemini Liveへ:ユニバーサルAIアシスタントの進化
コアメッセージ: 周囲の世界を理解できるユニバーサルAIアシスタントを目指す「Project Astra」のカメラと画面共有機能がGemini Liveに統合され、よりインタラクティブなAI体験が可能になります。
Project Astraは、視覚情報や音声情報をリアルタイムに理解し、ユーザーと対話できるAIアシスタントの将来像を探る研究プロジェクトでした。その成果であるカメラと画面共有機能がGemini Liveに搭載され、ユーザーは目の前の物事についてAIと会話したり、画面上の情報を共有しながらサポートを受けたりすることができます。この機能は既にAndroidユーザーに提供されており、iOSユーザーにも順次展開されます。
Section 3: Project MarinerからAgent Modeへ:AIエージェントによるタスク自動化
コアメッセージ: Web操作やタスク実行が可能なAIエージェントの研究プロトタイプ「Project Mariner」の機能が、Gemini APIやGeminiアプリの「Agent Mode」を通じて提供され、ユーザーの代わりに様々な作業を自動化します。
AIエージェントは、高度なAIモデルの知能とツールへのアクセスを組み合わせ、ユーザーの指示のもとで自律的に行動するシステムです。Project Marinerは、コンピュータ操作能力を持つエージェントの初期プロトタイプとして開発され、マルチタスク機能や「Teach and Repeat」(一度タスクを示すと類似タスクの計画を学習する機能)などが追加されています。
これらの機能はGemini APIを通じて開発者に提供され、Automation AnywhereやUiPathなどの企業が既に活用を開始しています。
Geminiアプリの新しい「Agent Mode」では、例えばアパート探しのような複雑なタスクをAIが代行します。ユーザーの条件に合う物件をZillowなどのウェブサイトで検索し、フィルターを調整し、Model Context Protocol (MCP) を利用して物件情報にアクセスし、内見の予約まで行うことができます。このAgent Modeの実験版は、間もなくサブスクライバー向けに提供される予定です。
Part 3: パーソナライゼーションとSearchの革新 🎯
サマリー: このパートでは、AIがユーザー個々の状況や好みを理解し、よりパーソナルな体験を提供するための取り組みと、Google SearchがAIによってどのように進化しているかを紹介します。プライバシーを保護しつつ、ユーザーにとって真に役立つ情報提供を目指しています。
Chapter 1: パーソナルコンテキストによるAI体験の深化
AIの真価は、ユーザー一人ひとりに最適化された体験を提供することで発揮されます。Googleは「パーソナルコンテキスト」という概念を通じて、これを実現しようとしています。
Section 1: Googleアプリ横断でのプライベートな情報活用
コアメッセージ: ユーザーの許可のもと、GeminiモデルがGoogleアプリ間の関連情報をプライベートかつ透明性の高い方法で活用し、よりパーソナルなサポートを提供します。
パーソナルコンテキスト機能により、Geminiはユーザーの過去のメール、Google Drive内のファイル、カレンダーの予定などを参照し、より文脈に即した、ユーザーにとって意味のある応答や提案を生成できるようになります。この機能は常にユーザーの管理下にあり、透明性が確保されています。
Section 2: GmailにおけるパーソナライズされたSmart Replies
コアメッセージ: GmailのSmart Replies機能がパーソナルコンテキストを活用し、ユーザーの過去のメールやファイルを参照して、より具体的で、ユーザーらしい文面やトーンの返信案を生成します。
例えば、友人が過去に旅行した場所についてアドバイスを求めてきた場合、Geminiはユーザーの過去のメールやGoogle Drive内の旅程表などを検索し、具体的な情報を含んだ返信案を作成します。ユーザー特有の挨拶や言葉遣い、トーンも再現し、より自然でパーソナルなコミュニケーションを支援します。この機能は、今年後半にサブスクライバー向けに提供予定です。
Chapter 2: Google SearchにおけるAI Modeの導入
Google Searchは、AIの力でその姿を大きく変えようとしています。
Section 1: AI Overviewsの成功とAI Modeへの期待
コアメッセージ: AI Overviewsは既に15億人以上のユーザーに利用され、検索体験を向上させています。その成功を基盤に、さらに進化したAI検索体験を提供する「AI Mode」が導入されます。
AI Overviewsは、検索結果の上部にAIが生成した要約を表示する機能で、ユーザーの満足度向上や検索頻度の増加に貢献しています。特に米国やインドなどの主要市場では、AI Overviewsが表示されるクエリタイプで10%以上の成長を牽引しています。
そして、エンドツーエンドのAI検索体験を求めるユーザー向けに、全く新しい「AI Mode」がSearchの新しいタブとして導入されます。
Section 2: Gemini 2.5による高度な検索体験
コアメッセージ: AI Modeは、より高度な推論能力を持つGemini 2.5を活用し、長く複雑な質問にも対応。ユーザーはより深い情報を得られるようになります。
AI Modeでは、従来の検索よりも2〜3倍長い、より複雑な質問を投げかけることができます。また、フォローアップの質問を通じて、さらに掘り下げた情報を得ることも可能です。このAI Modeは米国で提供が開始され、Gemini 2.5も今週から米国のSearchに導入されます。
AI Modeの内部では、「query fan-out」と呼ばれる技術が使用されています。これは、複雑な質問を複数のサブトピックに分解し、多数のクエリを同時に発行してWeb全体から情報を収集するものです。Knowledge GraphやShopping Graph、ローカルデータなど、Googleの持つ様々なデータセットも活用し、包括的で質の高い回答を生成します。
AI Modeには今後、以下のような機能がLabsを通じて追加される予定です。
- パーソナルコンテキスト: 過去の検索履歴やGmail(オプトイン)の情報に基づいたパーソナライズされた提案。
- Deep Search: 数十から数百の検索を代行し、専門家レベルの包括的なレポートを数分で作成。
- 複雑な分析とデータ可視化: スポーツや金融に関する質問に対し、表やグラフで分かりやすく情報を提示。
- エージェント機能: イベントチケットの検索・予約、レストラン予約などをAIが代行。
- Search Live: Project Astraのライブ機能を活用し、カメラを通じて目の前の物事についてリアルタイムに対話しながら検索。
-
ショッピング機能の強化:
rgb(75,172,198)
画像検索やバーチャル試着、価格追跡、エージェントによる購入代行など。
Part 4: Geminiアプリと生成メディアの進化 📱🎨
サマリー: このパートでは、Geminiアプリがよりパーソナルでプロアクティブ、かつパワフルなAIアシスタントへと進化する様子と、Veo 3やImagen 4といった最新の生成メディアモデルがもたらす創造性の新たな地平について解説します。
Chapter 1: Geminiアプリの新機能
Geminiアプリは、ユーザーの日常をサポートする強力なAIアシスタントとしての役割を強化しています。
Section 1: Deep ResearchとCanvasによる創造性の支援
コアメッセージ: Deep Research機能ではユーザー自身のファイルアップロードやGoogle Drive/Gmail連携が可能になり、Canvasでは調査レポートをインフォグラフィックやポッドキャストなどにワンクリックで変換できるようになります。
Deep Researchは、複雑なトピックについて深く掘り下げるための機能です。ユーザーが自身のファイルをアップロードして調査のガイドにしたり、Google DriveやGmail内の情報を活用したりできるようになります。
Canvasは、Geminiとの共同創造スペースであり、Deep Researchで得られたレポートを、動的なウェブページ、インフォグラフィック、クイズ、さらには多言語対応のポッドキャストといった多様な形式に簡単に変換できます。また、Canvas上で「vibe coding」(Geminiと対話しながらアプリを構築する)も可能になり、より多くの人々が機能的なアプリを作成できるようになります。
Section 2: Gemini Liveの機能拡張とiOS対応
コアメッセージ: Gemini Liveのカメラと画面共有機能が全ユーザー(iOS含む)に無料で提供され、近日中にお気に入りのGoogleアプリとの連携も可能になります。
Gemini Liveは、自然でインタラクティブな会話体験を提供し、ユーザーから高い評価を得ています。45以上の言語に対応し、150以上の国で利用可能です。カメラと画面共有機能が無料化され、AndroidおよびiOSユーザーが利用できるようになりました。さらに、カレンダー、マップ、Keep、TasksといったGoogleアプリとの連携も予定されており、よりシームレスなアシスタンスが期待されます。
また、Gemini in Chromeも発表され、デスクトップでウェブを閲覧中にAIアシスタントとして機能します。表示しているページのコンテキストを自動的に理解し、質問に答えたり、レビューを比較したりするのに役立ちます。この機能は米国のGeminiサブスクライバー向けに提供が開始されます。
Chapter 2: 生成メディアモデルの最新動向
Googleは、画像、ビデオ、音楽といった生成メディアの分野でも革新を続けています。
Section 1: Veo 3: 音声生成機能を搭載した最新ビデオモデル
コアメッセージ: 最新のビデオ生成モデルVeo 3は、ネイティブな音声生成機能を搭載し、よりリアルで表現力豊かなビデオコンテンツ作成を可能にします。
Veo 3は、視覚的な品質と物理法則の理解が向上しただけでなく、効果音、背景音、さらにはキャラクターのセリフまで生成できるネイティブオーディオ生成機能を備えています。これにより、プロンプトだけで音声付きのビデオを生成し、キャラクターに命を吹き込むことが可能になります。Veo 3はGeminiアプリで利用可能です。
Section 2: Imagen 4: 高度な画像生成モデル
コアメッセージ: 最新かつ最も高性能な画像生成モデルImagen 4がGeminiアプリで利用可能になり、より豊かで詳細な画像、そして正確なテキストやタイポグラフィの生成を実現します。
Imagen 4は、色のニュアンスや細部のディテールが向上し、特にテキストやタイポグラフィの扱いに優れています。ポスターや招待状など、テキストを含むクリエイティブな画像を高品質かつ高速に生成できます。Geminiのネイティブ画像生成機能により、アプリ内で簡単に画像を編集することも可能です。
Section 3: Flow: AIを活用した映画制作ツール
コアメッセージ: Veo、Imagen、Geminiの技術を組み合わせた新しいAI映画制作ツール「Flow」が登場し、クリエイターがより直感的かつ効率的に映像作品を制作できるよう支援します。
Flowは、クリエイターがアイデアを映像として具現化するためのツールです。ユーザーはキャラクター、シーン、スタイルといった「材料」を提供し、カメラの動きなどを指示することで、Veoが映像を生成します。短いクリップをより長いシーンに拡張したり、キャラクターやシーンの一貫性を保ちながらショットを繋げたりすることが可能です。Flowは、Google AI Ultraサブスクライバー向けにVeo 3と共に提供が開始されます。
Part 5: AndroidエコシステムとAIの融合 🤖👓
サマリー: このパートでは、AIがAndroidプラットフォーム全体、特に新しいXR(Extended Reality)デバイスにおいて、どのようにユーザー体験を変革していくかを探ります。Samsungや著名なアイウェアブランドとの提携により、AIはより身近な形で私たちの日常に溶け込んでいくでしょう。
Chapter 1: Android XR:Gemini時代の新たなプラットフォーム
コアメッセージ: Gemini時代に構築された初のAndroidプラットフォーム「Android XR」が登場し、ヘッドセットからグラス型デバイスまで、多様なXR体験をサポートします。
Android XRは、Samsungとの共同開発、Qualcomm Snapdragonへの最適化が行われ、幅広いデバイスに対応するプラットフォームです。映画鑑賞やゲーム、仕事には没入型ヘッドセット、外出時には軽量なグラス型デバイスといったように、用途に応じたXR体験を提供することを目指しています。
Section 1: Samsungとの協業による「Project Moohan」
コアメッセージ: Samsungの「Project Moohan」は、初のAndroid XRデバイスとして、Geminiと共に無限のスクリーンでアプリを探求する新しい体験を提供します。
Project Moohanは、ユーザーがGoogle Mapsで世界中をテレポートしたり、MLBアプリでスタジアムにいるかのように試合観戦したりしながら、Geminiと対話して情報を得るといった体験を可能にします。このデバイスは今年後半に発売予定です。
Section 2: Gentle Monster、Warby Parkerとの提携によるXRグラス
コアメッセージ: Android XRを搭載したスタイリッシュなグラス型デバイス開発のため、Gentle MonsterおよびWarby Parkerとの提携が発表されました。
Android XRグラスは、軽量で終日装着可能なデザインを目指し、カメラ、マイク、スピーカー、オプションのインレンズディスプレイを搭載します。Geminiがユーザーの周囲の状況を理解し、ハンズフリーで情報提供やタスク実行を支援します。これにより、ユーザーはスマートフォンを取り出すことなく、必要な時に必要な情報を得られるようになります。
ライブデモでは、バックステージでのリアルタイムな情報検索、コーヒーショップの記憶と検索、道案内、さらにはヒンディー語とペルシャ語間のリアルタイム翻訳などが披露されました。
Chapter 2: Androidデバイス全体へのGemini展開
コアメッセージ: Geminiはスマートフォンだけでなく、時計、自動車のダッシュボード、テレビなど、Androidエコシステム全体のデバイスに展開され、どこにいても役立つAIアシスタントを提供します。
Android 16やWear OS 6のメジャーアップデートと共に、GeminiはAndroidデバイスの体験をよりインテリジェントなものへと進化させます。電源ボタンからGeminiを即座に起動でき、ユーザーのコンテキストを理解してサポートを提供します。
Part 6: AIによる社会貢献と未来への展望 ✨
サマリー: このパートでは、GoogleがAI技術をどのように社会全体の利益のために活用しようとしているか、具体的な事例と共に紹介します。また、ロボティクスや量子コンピューティング、自動運転といった、AIが切り拓く未来の可能性についても触れます。
Chapter 1: Firesat:衛星とAIによる山火事検知
コアメッセージ: Firesatは、マルチスペクトル衛星画像とAIを活用し、山火事を早期かつ高精度に検知することで、被害の拡大を防ぐことを目指すプロジェクトです。
Firesatは、270平方フィート(約25平方メートル、1台分のガレージ程度)の小さな火災も検知できる解像度を持ちます。最初の衛星は既に軌道上にあり、完全に運用可能になれば、画像更新頻度は現在の12時間ごとから20分ごとへと大幅に短縮される見込みです。これにより、迅速な対応が可能となり、山火事による被害を最小限に抑えることが期待されます。
Chapter 2: Wing:ドローン配送による災害救援
コアメッセージ: Wingは、AIを活用したドローン配送システムにより、ハリケーンなどの災害時に食料や医薬品といった救援物資を迅速かつ効率的に届ける取り組みを進めています。
ハリケーン「Helene」の際には、WingがWalmartや赤十字と提携し、ノースカロライナ州のYMCAシェルターにドローンで救援物資を届けました。AIがリアルタイムのニーズに基づいて配送を最適化し、迅速な支援を実現しました。この取り組みは、他のコミュニティでの災害救援にも応用が期待されています。
Chapter 3: AIが拓く未来:ロボティクス、量子コンピュータ、自動運転
コアメッセージ: Googleは、AIをロボティクス、量子コンピューティング、AlphaFoldによる創薬、Waymoによる完全自動運転など、社会に大きな変革をもたらす可能性のある分野の研究開発にも注力しています。
これらの技術は、もはや数十年先の話ではなく、数年以内に現実のものとなる可能性を秘めています。Sundar Pichai CEOは、父親がWaymoの自動運転車に試乗して感動したエピソードを共有し、テクノロジーが人々にインスピレーションを与え、前進させる力を改めて強調しました。
まとめ:Google I/O 2025が示すAIの未来
Google I/O 2025は、AIが単なる技術的な進歩に留まらず、私たちの生活、仕事、創造性、そして社会全体に深く関わり、より良い未来を築くための強力なツールとなることを示しました。Geminiを中心としたAIの進化は、よりインテリジェントで、パーソナルで、そして何よりも「役立つ」AIの実現に向けたGoogleの強い意志を反映しています。開発者、技術者、そして私たち一人ひとりが、このAI革命の波に乗り、共に素晴らしい未来を築いていくことが期待されます。
本記事で紹介した機能やサービスには、提供時期や地域が限定されるもの、あるいは実験的なものが含まれています。最新情報については、Googleの公式発表をご確認ください。