はじめに
Google I/Oは毎年開催されているGoogleの大規模なカンファレンスイベントです
規模も大きければ発表内容も膨大であり、それらの動画を全て確認しようとすればかなりの時間がかかってしまいます。
そこで試しにGoogleのことはGoogleに聞こうということでGemini様にお伺いして情報を引っ張ってきてもらうことにしました。
本日は日本時間でGoogle I/O開催日の翌日です。コンテンツも全て発表され、それらに関するまとめ記事やブログも揃っていることを期待して、いざ実践です。
Gemini様へのお言葉
Google I/O 2025のAndroid, Android Studio, Geminiに関する発表について日本語でまとめてください。ソースとして参考にしたサイト等あればリンクも貼ってください。
Deep ResearchはONにした状態で、自分が興味のある分野に関して、かなり雑なスクリプトを投げます。
これでどのくらい集めてくれるのか......
以下、出力結果です
Google I/O 2025 主要発表まとめ:Android, Android Studio, Geminiの進化
1. はじめに
Google I/O 2025は、2025年5月20日から21日にかけてオンラインで開催され、Googleの技術革新の方向性を明確に示しました1。特に、AI、中でもGeminiが基調講演の中心となり、Googleのあらゆる製品とサービスにAIを深く統合する戦略が強調されました2。Sundar Pichai CEOは、基調講演で「Gemini」を95回、「AI」を92回言及したと報じられており、AIがGoogleの今後の10年間を形作る「新しいフェーズ」に入ったことを示唆しています2。
この発表は、GoogleがAIを単なる特定の製品機能としてではなく、自社のエコシステム全体をAIで再構築する「AI Everywhere」(あらゆる場所にAIを)というビジョンの具現化を目指していることを強く示唆しています。AIがデバイス、サービス、開発ツール、そしてユーザーインタラクションの基盤となることで、Googleは今後の技術革新の主導権を握ろうとしていることがうかがえます。この戦略は、ユーザー体験の根本的な変革(よりパーソナライズされ、直感的で、エージェント的なインタラクション)と、開発者体験の抜本的な効率化(AIによるコード生成、テスト、デバッグ支援)をもたらすものと考えられます。長期的に見れば、GoogleがAI分野でのリーダーシップを確立し、競合他社との差別化を図るための中心的な柱となるでしょう。
本レポートでは、Google I/O 2025で発表された主要な進展の中から、特に「Gemini」、その基盤となる「Android」、そして開発者の生産性を飛躍させる「Android Studio」に焦点を当て、その詳細な内容、相互関係、そして広範な影響について技術的な視点から分析し、まとめます。
2. Gemini: AIの進化とエコシステムへの統合
Google I/O 2025における発表の核心は、Geminiモデルの飛躍的な進化とそのGoogleエコシステム全体への広範な統合にありました。
Gemini 2.5の主要アップデート
Googleは、Gemini 2.5 ProとGemini 2.5 Flashの両モデルにわたる大幅な性能向上と新機能の導入を発表しました。これらのアップデートは、モデルの能力を拡張し、より多様なユースケースに対応することを目指しています。
Gemini 2.5 Proは、WebDev ArenaおよびLMArenaのリーダーボードで世界をリードするモデルとなり、学習支援においてもトップの性能を示しています1。特に、教育専門家と共同開発されたLearnLMモデル群を組み込んだことで、教育学と有効性の評価において他のモデルを凌駕しました1。これは、AIが単なる情報提供だけでなく、教育分野における深い知識伝達と学習支援に貢献できる可能性を示唆しています。一方、2.5 Flashは、速度と低コストに特化しつつも、推論、マルチモダリティ、コード、長文コンテキストの主要ベンチマークで改善され、評価において20〜30%少ないトークンを使用する効率性を実現しています1。これは、リアルタイム性が求められるアプリケーションや大規模な展開において、Flashモデルが重要な役割を果たすことを意味します。
2.5 Pro向けには試験的な「Deep Think」モードが導入されました1。このモードは、モデルが応答を生成する前に複数の仮説を検討できる新しい研究技術を利用しており、2025年のUSAMO(困難な数学ベンチマーク)で高得点を達成し、LiveCodeBench(競技プログラミングベンチマーク)でもリードしています2。Deep Thinkは、さらなる安全性評価と専門家の意見を取り入れた後、信頼できるテスター向けにGemini APIを通じて提供される予定です2。これは、AIがより複雑で高度な「思考」プロセスを模倣し、人間のような問題解決能力に近づいていることを示しています。この機能強化は、AIが単なるパターン認識や情報抽出を超えた、より深い問題解決能力の獲得を目指している方向性を示唆しています。
Live APIは、オーディオビジュアル入力とネイティブオーディオ出力ダイアログのプレビュー版を提供し、より自然で表現豊かな会話体験を直接作成できるようにしました1。モデルのトーン、アクセント、話すスタイルを制御でき、24言語に対応し、言語間のシームレスな切り替えが可能です2。これにより、AIとの音声インタラクションが、より人間的で没入感のあるものへと進化します。早期機能としてAffective Dialogue(ユーザーの感情を検知して応答)、Proactive Audio(背景の会話を無視し、応答すべき時を判断)、Thinking in the Live API(複雑なタスクでGeminiの思考を活用)が含まれます3。
Project Marinerのコンピューター使用機能がGemini APIとVertex AIに統合されています1。これにより、モデルはウェブブラウジングや他のソフトウェアツールを指示の下で使用できるようになり、時間のかかる単純なタスク(情報検索、予約、購入など)を自動化する能力が向上します2。これは、AIが単なる情報提供者ではなく、ユーザーのデジタル作業を自律的に実行する「エージェント」としての役割を強化する重要なステップです。Deep ThinkとProject Marinerの導入は、GoogleがAIを単なる情報生成ツールではなく、より複雑なタスクを実行できる存在として進化させようとしていることを示しています。これは、AIが単なる「アシスタント」から、ユーザーの「代理人(エージェント)」として機能する方向への大きなシフトを意味し、より複雑なワークフローに統合され、ユーザーの生産性を劇的に向上させる可能性を秘めています。
セキュリティ面では、間接的なプロンプトインジェクション(取得データに埋め込まれた悪意のある指示)に対する保護が大幅に強化され、Gemini 2.5はこれまでで最も安全なモデルファミリーとなりました1。これは、AIの普及に伴うセキュリティリスクへのGoogleのコミットメントを示しています。
開発者体験の向上も重視されており、Gemini 2.5 ProとFlashの両方で、Gemini APIおよびVertex AIにThought Summariesが導入されました1。これにより、モデルの思考プロセスがヘッダー、主要な詳細、モデルのアクション(ツール使用など)を含む明確な形式で整理され、開発者やユーザーにとって理解しやすく、デバッグが容易になります2。これは、AIの「ブラックボックス」性を低減し、透明性を高めるための重要な改善です。また、コストを制御し、応答の遅延と品質のバランスを取るために、Thinking Budgetsが2.5 Proにも拡張されました1。これにより、開発者はモデルが応答する前に使用するトークン数を制御したり、思考機能をオフにしたりすることができます2。これは、開発者がAIモデルの動作をより細かく制御し、コスト効率を最適化するための強力なツールとなります。さらに、オープンソースツールとの統合を容易にするため、Gemini APIにModel Context Protocol (MCP) 定義のネイティブSDKサポートが追加されました3。これにより、開発者は既存のオープンソースエコシステム内でGeminiをよりシームレスに活用できるようになります。
以下の表は、Gemini 2.5 ProとGemini 2.5 Flashの主要機能を比較したものです。
表1: Gemini 2.5 ProとGemini 2.5 Flashの主要機能比較
機能/特製 | Gemini 2.5 Pro | Gemini 2.5 Flash |
---|---|---|
主要な用途/特徴 | 高性能、複雑な推論、長文コンテキスト、学習支援 | 速度とコスト効率、効率的な推論とマルチモダリティ |
コンテキストウィンドウ | 100万トークン | (詳細未記載だが、Flashは効率性を重視) |
Deep Think | 利用可能 (試験的、信頼できるテスター向け) | 利用不可 |
ネイティブオーディオ出力 | プレビュー版利用可能 (24言語、複数話者対応) | プレビュー版利用可能 (24言語、複数話者対応) |
Computer Use (Project Mariner) | Gemini APIおよびVertex AIに統合中 | Gemini APIおよびVertex AIに統合中 |
Thought Summaries | Gemini APIおよびVertex AIで利用可能 | Gemini APIおよびVertex AIで利用可能 |
Thinking Budgets | 利用可能 (数週間以内に一般提供) | 利用可能 |
主な提供場所 | Google AI Studio, Vertex AI, Geminiアプリ | Google AI Studio, Vertex AI, Geminiアプリ |
性能ベンチマーク | WebDev Arena, LMArena, LearnLMでトップ性能 | 推論、マルチモダリティ、コード、長文コンテキストで改善 |
効率性 | (高) | 20-30%少ないトークン使用で高効率Google スプレッドシートにエクスポート |
GoogleプロダクトにおけるGeminiの展開
Geminiの進化は、Googleの既存プロダクトへの広範な統合を通じて、ユーザー体験の変革を目指しています。これは、AIが単なる独立したサービスではなく、日々のデジタル活動の基盤となることを意味します。
Google検索には新しい「AI Mode」タブが導入され、米国ユーザー全員に展開されます1。これは、従来のキーワード検索とは異なり、より複雑なクエリ(例:フィットネストラッカーの比較、イベントのチケット検索)を処理するために設計されたチャットボット形式のインターフェースです2。AI ModeはGemini 2.5を基盤としており3、将来的にはカスタムチャートやグラフィックの生成、フォローアップ質問への対応も可能になります4。これは、検索体験がより対話的で、多機能なものへと進化することを示しています。既存の「AI Overviews」(日本では「AI Summaries」)は、すでに15億人以上のユーザーに利用されており、Google検索の過去10年で最も重要な進歩の一つとされています5。AI Modeの一部の機能は、AI Overviewsに統合される予定です6。これは、AIによる要約がユーザーにとっての主要な情報源となりつつある現状を反映しています。
AI Modeは、ユーザーのGmailなどのGoogleアプリと連携することで、ショッピングやニュースレター購読に関連する情報など、よりパーソナライズされた検索結果を提供します1。ユーザーは「Personal Context」機能を通じてこの連携を制御できます2。これにより、検索結果が個々のユーザーの文脈により深く適合するようになります。新しいショッピング機能として「Try It On」が導入されました3。これにより、ユーザーは自分の全身写真をアップロードし、検索結果に表示される衣類が仮想的に自分にどのように見えるかを確認できます3。これは、オンラインショッピング体験における視覚的なギャップを埋める画期的な機能です。衣料品の価格追跡機能や、「Buy for Me」(AIエージェントが目標価格とサイズを設定し、ショッピングサイトで自動的に購入を完了する)機能もデモされました4。これは、AIがユーザーの購買行動を能動的に支援する方向性を示しています。深度のある情報が必要なユーザー向けに「Deep Search」機能がAI Modeに含まれます5。これは、包括的な調査を行い、主要な調査結果をまとめた詳細なレポートを生成する機能です6。
デスクトップ版Chromeブラウザには新しいAIアシスタント機能「Gemini in Chrome」が提供されます1。これはウェブページのコンテンツを要約したり、質問に答えたり、レビューの下書き作成などを支援します2。将来的には、複数のタブにわたるコンテンツの要約やウェブサイトのナビゲーションも可能になる予定です3。Google AI ProおよびGoogle AI Ultraのサブスクリプションユーザーが利用できます3。これにより、ブラウザが単なる情報閲覧ツールから、より賢いアシスタントへと進化します。Chrome DevToolsにもGeminiが直接統合され、スタイリング、パフォーマンス、ネットワークの問題などのデバッグワークフローを支援します4。AIが提案する変更をElementsパネル内で直接適用したり、PerformanceパネルでCore Web Vitalsの最適化に関するコンテキスト情報を提供したりできます4。これは、ウェブ開発者の生産性向上に直結するものです。
その他のAI駆動型ツールとサービスとして、新しい自律型コーディングエージェント「Jules」がパブリックベータ版として提供されます1。JulesはGitHubリポジトリと直接連携し、バグ修正、テスト、新機能の構築、バージョンアップグレードなど、複数の開発タスクをバックグラウンドで処理し、完了後にプルリクエストを作成します2。これは、開発ワークフローの自動化を次のレベルへと引き上げるものです。自然言語記述や画像プロンプトを使用して、高品質なUIデザインと対応するフロントエンドコードを生成するAI駆動型ツール「Stitch」が導入されました3。デザインの反復、テーマ調整、CSS/HTMLやFigmaへのエクスポートが容易です4。これにより、デザインから実装までのプロセスが大幅に加速されます。Veo、Imagen、Geminiモデルを活用した新しいAI映像制作ツール「Flow」が発表されました5。カメラムーブメントや視点制御、既存ショットの編集・拡張、GoogleのVeoモデルで生成されたAIビデオコンテンツのプロジェクトへの組み込みなどの機能が含まれます6。これは、コンテンツクリエイターの創造性をAIが拡張する強力なツールです。画像生成AI「Imagen」はバージョン4に更新され、フォトリアリスティックな画像の生成能力と、生地や毛皮のような細部の処理、テキストやタイポグラフィの正確な表示が向上しました7。ビデオ生成AI「Veo」はバージョン3に更新され、ネイティブオーディオをサポートし、キャラクター間の会話生成も可能になりました8。これらのモデルは、生成AIの品質と表現力を新たな高みへと引き上げています。
ユニバーサルAIアシスタントとしてのGoogleのビジョンである「Project Astra」に関する詳細が提供されました1。Gemini Liveは、Pixelデバイスだけでなく、AndroidおよびiOSのGeminiアプリにも展開され、スクリーンショットやライブビデオに関する質問にGeminiが応答できるようになります2。これは、AIがユーザーの周囲の世界をリアルタイムで「理解」し、それに基づいて行動する能力の進歩を示しています。Google Meetにはリアルタイム翻訳オプションが追加され、話者のトーンやリズムを合わせた翻訳が可能になります3。これは、グローバルなコミュニケーションの障壁を低減するものです。3Dビデオ会議システム「Project Starline」が「Google Beam」にリブランドされました4。AIと6台のカメラを使用してユーザーのリアルタイム3Dモデルをレンダリングし、相手が目の前にいるかのような臨場感を提供します5。
これらの変化は、ユーザーがデジタルサービスと関わる方法の根本的なパラダイムシフトを意味します。AI Modeは、従来のキーワードベースの検索から、より複雑で会話的なクエリ(複数ステップの質問、比較、パーソナライズされた情報)への移行を促します1。これは、ユーザーがウェブサイトを直接訪問する代わりに、AIが提供する要約や直接的な回答で満足する可能性を高め、ウェブトラフィックの減少という潜在的な影響も示唆します2。Googleは、AIが一次情報源となり、ユーザーが外部サイトへ移動する動機が薄れることによる「トラフィックの減少」というトレードオフを受け入れているように見えます。「Try It On」3やProject Astraのライブビデオ/スクリーンショットからの質問応答4は、テキストだけでなく、画像やリアルタイムの視覚情報を用いたインタラクションが主流になることを示しています。これは、ユーザーがより自然な方法でAIとコミュニケーションできるようになることを意味し、特にXRデバイスのような新しいフォームファクターでの利用を促進します。「Buy for Me」5やProject Mariner6は、AIがユーザーの代理として複雑なタスクを自律的に実行する能力を強調しています。これは、ユーザーがアプリケーションを直接操作する手間を減らし、AIに「任せる」という新たな利用形態を生み出します。これにより、ユーザーのデジタル作業における「認知負荷」が大幅に軽減される可能性があります。
新しいAIサブスクリプションプラン
Googleは、AI機能へのアクセスを階層化するために、新しいプレミアムサブスクリプションプランを導入しました。これは、AI技術の収益化と、異なるユーザーセグメントへの価値提供を目的としています。
Google AI Pro(旧AI Premiumプラン)は月額19.99ドルで、Geminiアプリ(Gemini 2.5 Pro、Deep Research、Veo 2を含む)、AI映像制作ツールFlow、画像からビデオ生成のWhiskの利用制限引き上げ、NotebookLM、Gmail、Docs、VidsなどでのGemini統合、ChromeでのGemini早期アクセス、2TBのストレージを提供します4。これは、一般的なAIユーザーやプロフェッショナルが日常的にAIを活用するための包括的なパッケージです。
Google AI Ultraは、月額249.99ドル(日本では36,400円)の新しいプレミアムプランで、最も先進的なAIモデルへのアクセスを提供します2。AI Proの全機能に加え、Geminiアプリでの最高利用制限、2.5 Pro Deep ThinkとVeo 3への独占アクセス、FlowとWhiskでの最高利用制限、NotebookLMでの最高利用制限と最高のモデル機能、GmailなどでのGemini統合の最高利用制限、Project Marinerへの早期アクセス、YouTube Premium個人プラン、30TBのストレージが含まれます 2。新規加入者は最初の3ヶ月間50%オフの割引が適用されます4。このプランは、最先端のAI技術を最大限に活用したいパワーユーザーや、ビジネス用途でAIを深く統合したい企業を明確にターゲットにしています。
月額249.99ドルという高額なUltraプランは、AIの最先端機能(Deep Think、Veo 3、Project Mariner早期アクセスなど)や大容量ストレージを求める「パワーユーザー」や「企業ユーザー」を明確にターゲットにしています2。これは、AIが単なるコンシューマー向け機能を超え、プロフェッショナルなワークフローやビジネス用途で価値を生み出す「エンタープライズ級」のツールとして位置づけられていることを示唆します。Googleは、AIを単なるコストセンターではなく、高収益を生み出すビジネスユニットへと転換しようとしていると推測されます。無料ティア、Pro、Ultraという段階的なアクセスモデルは、AI機能の価値をユーザー層に応じてセグメント化し、異なるニーズに対応しようとする戦略です。これにより、Googleは広範なユーザーベースを維持しつつ、高付加価値機能からの収益を最大化することを目指しています。これは、AI技術の差別化された価値を認識し、それに応じた価格設定を行うことで、市場シェアと収益性の両方を追求する戦略であると考えられます。
以下の表は、Google AIサブスクリプションプランの主要な提供内容を比較したものです。
表2: Google AIサブスクリプションプラン比較
機能/プラン | 無料ティア | Google AI Pro (旧AI Premium) | Google AI Ultra |
---|---|---|---|
月額料金 | 無料 | $19.99 | $249.99 (日本円 約36,400円) |
主要なGeminiモデル | 基本的なGeminiアクセス | Gemini 2.5 Pro, Deep Research, Veo 2 | Gemini 2.5 Pro Deep Think, Veo 3 (独占アクセス) |
Flow (AI映像制作) | 利用不可 | アクセス可能 (Veo 2使用) | アクセス可能 (Veo 3使用、最高利用制限) |
Whisk (画像→ビデオ) | 利用不可 | 高い利用制限 | 最高の利用制限 |
NotebookLM | 利用不可 | アクセス可能 | 最高の利用制限とモデル機能 |
Gmail/DocsなどでのGemini統合 | 利用不可 | アクセス可能 | 最高の利用制限 |
ChromeでのGeminiアクセス | 利用不可 | 早期アクセス | 早期アクセス |
Project Mariner | 利用不可 | 利用不可 | 早期アクセス |
クラウドストレージ | (基本容量) | 2TB (Photos, Drive, Gmail) | 30TB (Photos, Drive, Gmail) |
その他特典 | なし | なし | YouTube Premium 個人プラン |
新規加入者割引 | なし | なし | 最初の3ヶ月間50%オフ (米国のみ) |
3. Gemini: AIの進化とエコシステムへの統合
Google I/O 2025では、Androidプラットフォームの継続的な進化が示され、特に新しいフォームファクターへの適応とAIとの統合が強調されました。
Android OSのアップデート
Android 16の最新機能が発表され、これまでのプレビュー版からさらに詳細が明らかになりました15。Android 16の主要機能には、ライブアップデート、プロフェッショナルなメディアおよびカメラ機能、デスクトップウィンドウ機能、接続ディスプレイへの対応、そして重要なアクセシビリティの強化が含まれます15。開発者は、最新のAndroid 16ベータ版でアプリのテストを行うことが推奨されています15。
新しいMaterial 3 Expressiveアップデートは、製品の魅力を高めるためのツールを提供し、感情的なユーザーエクスペリエンス(UX)を活用することで、アプリをより魅力的で直感的、そしてユーザーにとって望ましいものにすることを目指します15。この新しいUIデザインは、パーソナライズされたビジュアルとモーションを特徴とし、Wear OS 6にも導入されます15。開発者は、Wear Compose Material 3やWear ProtoLayout Material 3といった新しいJetpackライブラリを利用することで、Wear OS上でMaterial 3 Expressiveにアクセスできます15。これにより、ユーザーインターフェースがより豊かで適応性の高いものへと進化します。
Androidの基盤アーキテクチャの進化として、16KBページサイズへの移行が重要なステップとして挙げられました17。この根本的な変更には、ネイティブコードや依存関係を持つすべてのAndroidアプリが互換性のために再コンパイルされる必要があります17。Android Studioは、16KBデバイスと互換性のないAPKやAndroid App Bundleをビルドする際に事前警告を提供し、APK Analyzerで互換性のないライブラリを特定できる機能が追加されました17。さらに、テスト用に専用の16KBエミュレーターターゲットも利用可能です17。この変更は、Androidエコシステム全体の安定性とパフォーマンスを長期的に向上させるための重要な基盤強化であり、開発者には早期の対応が求められます。
Android XR: 次世代デバイスプラットフォーム
Googleは、拡張現実(AR)、複合現実(MR)、仮想現実(VR)の分野でAndroidがスマートフォンにもたらしたような変革を目指すプラットフォーム「Android XR」について、さらなる情報を提供しました7。
Xrealは、Android XRプラットフォーム向けに設計されたテザー型スマートグラス「Project Aura」を開発しており、これが2番目のAndroid XRデバイスとして発表されました2。詳細は6月のAugmented World Expo (AWE) で明らかにされる予定です2。Googleはまた、Samsungと協力して独自のAndroid XRヘッドセット「Project Moohan」を開発しており、これは2025年後半に登場する予定です2。このヘッドセットは、Geminiとの統合により、ユーザーが見ているものを理解し、ユーザーに代わって行動することで、より使いやすく、より強力になることを目指しています4。さらに、Gentle MonsterやWarby Parkerといったアイウェアブランドとも提携し、スタイリッシュなスマートグラスの開発を進めています2。
Googleは、Samsungと共同開発したスマートグラス向けのライブ翻訳機能のデモも披露しました7。これは特にアクセシビリティの面で非常に有用であると評価されています7。Androidは、スマートフォンだけでなく、車載システム、XRデバイス、ウェアラブル、TVなど、多様なフォームファクターへの展開を戦略的に進めています。特にXRは、将来の主要な成長分野として位置づけられています。この多角化は、Androidをユーザーの日常生活の様々なデバイスに深く組み込むことで、その継続的な関連性を確保し、プラットフォームとしての支配力を維持しようとするGoogleの意図を反映しています。
車載体験の強化
Googleは、開発者が車載体験を構築するための機会を拡大すると発表しました 15。これには、新しいGemini統合、ゲームやビデオなどの追加アプリカテゴリのサポート、Car App Libraryと新しいAPIを介したメディアおよび通信アプリの機能強化が含まれます4。
開発者ツールと配布の面では、更新された車載アプリの品質基準と簡素化された配布に加えて、Android Automotive OSをPixel Tablet上でテストできる機能や、Firebase Test Labへのアクセスなど、改善されたテストツールが間もなく提供される予定です15。これらは、開発者が革新的なアプリを車載システムに導入するのを支援するために設計されています15。Volvoのドライバーは、運転中にGeminiと会話できるようになり、メッセージの送信、他言語への翻訳、車のマニュアルに関する質問、目的地に関する情報の取得などが可能になります4。Gemini AIチャットボットは、今後数ヶ月以内にAndroid Auto搭載車に、そして年内にはGoogle built-in搭載車に展開される予定であり、Volvo車がその最初の恩恵を受けることになります4。これは、車載インフォテインメントシステムにおけるユーザーエクスペリエンスを大幅に向上させるものです。
4. Android Studio: 開発者生産性の革新
Google I/O 2025では、Android Studioにおける開発者生産性の向上に重点が置かれ、特にAI駆動型機能の強化、UI作成とテストの効率化、そしてアプリの将来性確保のためのツールが発表されました。
AI駆動型機能の強化
Android Studioは、Geminiとの深い統合により、開発のあらゆる段階でAndroid開発を強化します 15。
実験的な機能である「Journeys for Android Studio」は、開発者が自然言語でユーザーの行動経路を記述するだけで、Geminiが複数のデバイスでテストを実行できるようにします 17。詳細な結果はIDE内で直接確認でき、高品質なコードの出荷速度向上と手動テスト時間の削減を目指しています 17。App Quality Insightsパネルの新しい機能として、クラッシュの原因となったアプリのソースコードを分析し、包括的な分析と説明を提供し、場合によっては直接的なソースコードの修正案まで提示します 17。これにより、クラッシュの根本原因の特定と解決が迅速化されます。
開発者は「Studio Labs」メニューから最新の実験的なAI機能にアクセスし、試すことができます 17。これには、GeminiによるJetpack Composeプレビューコードの自動生成(右クリックでアクセス可能)、自然言語でのリクエストによるUIコードの変換(例:「これらのボタンを中央揃えにする」)、UIモックアップやスクリーンショットなどの画像ファイルをプロンプトに添付してコンテキストを提供する機能、プロジェクトファイルをGeminiチャットのコンテキストとして添付する機能などが含まれます 17。これらの機能は、UI作成とコード生成のワークフローを大幅に効率化します。Prompt Libraryでは、開発者が好みのコーディングスタイル、出力形式、技術スタック、言語を定義できる「Rules」機能が追加されました 17。これらの設定はGeminiに送信される後続のプロンプトに自動的に適用され、より正確でカスタマイズされたコード支援が提供されます 17。ビジネス向けAndroid StudioのGeminiは、Google Cloudが提供するエンタープライズグレードのプライバシーとセキュリティ機能を備え、Gemini Code Assist StandardまたはEnterpriseエディションの購読で利用可能です 17。
開発者ツールの改善
Composeプレビューの改善により、プレビュー定義や個々のコンポーネント定義へのジャンプ、キーボードの矢印ナビゲーションによる複数プレビュー間の移動が効率化されました 15。また、Composeプレビューのフォーカスモードでは、プレビューウィンドウの端をドラッグしてサイズ変更が可能になり、UIが異なる画面サイズにどのように適応するかを即座に視覚的に確認できるようになりました 17。これにより、レスポンシブなUI設計が容易になります。
Android XRエミュレーターは、デフォルトで埋め込み状態で起動するようになり、Android Studio内で直接アプリケーションのデプロイ、3D空間のナビゲーション、Layout Inspectorの使用が可能になりました 17。これにより、XR開発のワークフローが効率化されます。Android Studioには、組み込みのバックアップと復元サポートが含まれており、接続されたデバイスでアプリのバックアップをトリガーしたり、アプリ起動時に以前のバックアップから自動的に復元するよう設定したりできます 17。これにより、バックアップと復元の実装テストが簡素化されます。GoogleまたはJetBrainsアカウントでサインインすることで、Android Studioのカスタマイズと設定をすべてのインストール間で同期し、リモートインスタンスで自動的に復元できるようになりました 17。
Kotlin Multiplatform (KMP) の改善も進められており、新しいAndroid Studio KMP共有モジュールテンプレート、更新されたJetpackライブラリ、および新しいCodelabsが提供されます 15。これらは、開発チームがAndroidとiOSの両方で新しいユーザーにリーチする時間を短縮し、開発効率を向上させることを目的としています 17。
実験的機能と今後の予定
実験的な公開プレビューとして利用可能な「Android Studio Cloud」は、Linux仮想マシン上で動作するAndroid Studioをウェブブラウザに直接ストリーミングするサービスです 17。これにより、インターネット接続があればどこからでもAndroidアプリケーション開発が可能になり、専用のワークスペースとGitHubからの既存プロジェクトへのシームレスなアクセスを提供し、ローカルインストールが不要になります 17。これは、リモート開発の可能性を大きく広げるものです。
「Version Upgrade Agent」(近日公開予定)は、Android StudioのGeminiの一部として、依存関係のアップグレードを自動化します 17。プロジェクトを分析し、リリースノートを解析し、libs.versions.tomlやリファクタリングメニューから更新を提案します 17。依存関係を自動的に更新し、プロジェクトをビルドし、反復的にエラーを修正し、変更のレポートを生成します 17。
「Agent Mode」(近日公開予定)は、Geminiを使用する新しい自律型AI機能で、複数のプロジェクトファイルにまたがる実行計画を策定し、依存関係の追加、ファイルの編集、反復的なバグ修正など、複雑な多段階の開発タスクを処理します 17。これは、開発者が複雑な課題に取り組み、ビルドとプロトタイピングを加速させることを目指します 17。
「Play Policy Insights beta」(近日公開予定)は、Android StudioにGoogle Playポリシーに関するより豊富な洞察とガイダンスをLintチェックとして組み込みます 17。これにより、開発者は最初からより安全なアプリを構築し、公開プロセスを妨げる可能性のある問題を未然に防ぐことができます 17。
これらのAI駆動型機能(Android StudioのGemini、Jules、Stitchなど)は、コード生成、テスト、デバッグ、UI作成といった開発ワークフローを自動化することで、開発者の生産性を劇的に向上させるものです。これにより、開発者はより複雑で創造的なタスクに集中できるようになり、イノベーションの加速と市場投入までの時間の短縮が期待されます。
5. 結論
Google I/O 2025は、GoogleがAI技術、特にGeminiをその事業戦略の核として位置づけ、エコシステム全体をAIで再構築する「AI Everywhere」のビジョンを強力に推進していることを明確に示しました。Sundar Pichai CEOの基調講演における「Gemini」と「AI」の頻繁な言及は、この戦略的優先順位を象徴しています。
Geminiモデルは、Deep Thinkによる高度な推論能力とProject Marinerによるエージェント性の強化を通じて、単なる情報提供ツールから、ユーザーの指示に基づいて自律的にタスクを実行する「代理人」へと進化しています。この進化は、Google検索の「AI Mode」やChromeへのGemini統合など、既存の主要プロダクトにおけるユーザーインタラクションの根本的なパラダイムシフトをもたらします。ユーザーは、より会話的で、マルチモーダルな方法でAIと関わるようになり、AIがショッピングや情報収集などの複雑なタスクを代行するようになることで、デジタル作業における認知負荷が軽減される可能性があります。同時に、AI機能へのアクセスを階層化したGoogle AI ProおよびGoogle AI Ultraのサブスクリプションプランの導入は、Googleが最先端のAI技術にプレミアムな価値を設定し、高収益を生み出すビジネスユニットへと転換しようとする収益化戦略を示しています。
Androidプラットフォームは、Android 16の機能強化やMaterial 3 ExpressiveによるUXの向上を通じて、その基盤を固めつつ、スマートフォン以外の多様なフォームファクター、特にAndroid XRデバイスへの展開に注力しています。SamsungのProject MoohanやXrealのProject Auraといったスマートグラスの発表は、Androidが次世代のコンピューティングプラットフォーム、特にAR/VR分野での主導権を握ろうとしていることを示唆します。また、車載体験の強化も進められ、Geminiの統合により、車内でのAIアシスタンスがより高度で自然なものになります。
開発者ツールであるAndroid Studioは、Geminiとの深い統合により、開発者の生産性を劇的に向上させるためのAI駆動型機能が多数導入されました。Journeysによるテストの自動化、クラッシュの修正提案、UI生成と変換の支援、そしてJulesのような自律型コーディングエージェントの提供は、開発ワークフローを根本から変革し、イノベーションの加速に貢献するでしょう。Android Studio Cloudのような実験的な取り組みは、開発環境の柔軟性を高め、リモート開発の可能性を広げます。
総じて、Google I/O 2025は、GoogleがAIを単なる技術トレンドとしてではなく、自社のエコシステム全体、そしてユーザーと開発者との関係性を根本的に再構築する戦略的ドライバーとして位置づけていることを強く印象付けました。これは、今後の技術革新の方向性を決定づける重要な節目であり、AIが社会や産業に与える影響は、今後さらに広範かつ深遠なものとなるでしょう。
引用文献
- io.google, 5月 22, 2025にアクセス、 https://io.google/2025/about#:~:text=When%20is%20Google%20I%2FO,May%2020%2D21%2C%202025.
- Google I/O基調講演まとめ 「Gemini」で体験をさらに ... - ITmedia, 5月 22, 2025にアクセス、 https://www.itmedia.co.jp/news/articles/2505/21/news119.html
- What you should know from the Google I/O 2025 Developer keynote ..., 5月 22, 2025にアクセス、 https://developers.googleblog.com/en/google-io-2025-developer-keynote-recap/
- Everything Google Introduced at I/O 2025: Gemini and AI Search ..., 5月 22, 2025にアクセス、 https://www.pcmag.com/live/google-io-2025-live-blog-updates-gemini-ai-android-16-news
- Google's unleashes 'AI Mode' in the next phase of its journey to ..., 5月 22, 2025にアクセス、 https://apnews.com/article/google-search-artificial-intelligence-upheaval-5b0cdc59870508dab856227185cb8e23
- Google I/O 2025: Updates to Gemini 2.5 from Google DeepMind, 5月 22, 2025にアクセス、 https://blog.google/technology/google-deepmind/google-gemini-updates-io-2025/
- Google I/O 2025 recap: AI updates, Android XR, Google Beam and ..., 5月 22, 2025にアクセス、 https://www.engadget.com/ai/google-io-2025-recap-ai-updates-android-xr-google-beam-and-everything-else-announced-at-the-annual-keynote-175900229.html
- Build transformative AI applications with Google AI - Google Blog, 5月 22, 2025にアクセス、 https://blog.google/technology/developers/google-ai-developer-updates-io-2025/
- Google IO 2025 summary: 5 big announcements you'll want to know ..., 5月 22, 2025にアクセス、 https://www.digitaltrends.com/mobile/google-io-2025-summary/
- At Google I/O, everything is changing and normal and scary and chill - Platformer, 5月 22, 2025にアクセス、 https://www.platformer.news/google-io-2025-ai-everything-everywhere/
- 10 updates from Google I/O 2025: CSS carousels, AI-powered ..., 5月 22, 2025にアクセス、 https://developer.chrome.com/blog/web-at-io25
- Google I/O 2025 - What Developers Should Know - YouTube, 5月 22, 2025にアクセス、 https://www.youtube.com/watch?v=Da275bLi_-4
- Google I/O 2025: AI Takes Center Stage with Gemini Ultra, Veo 3, and More - OpenTools, 5月 22, 2025にアクセス、 https://opentools.ai/news/google-io-2025-ai-takes-center-stage-with-gemini-ultra-veo-3-and-more
- The 5 COOLEST things I tried at Google I/O 2025! - YouTube, 5月 22, 2025にアクセス、 https://www.youtube.com/watch?v=BKM3vohmED8
- 16 things to know for Android developers ... - Android Developers Blog, 5月 22, 2025にアクセス、 https://android-developers.googleblog.com/2025/05/16-things-to-know-for-android-developers-google-io-2025.html
- What's new in Android - Google I/O 2025, 5月 22, 2025にアクセス、 https://io.google/2025/explore/pa-keynote-7
- What's new in Android ... - Android Developers Blog: Google I/O 2025, 5月 22, 2025にアクセス、 https://android-developers.googleblog.com/2025/05/google-io-2025-whats-new-in-android-development-tools.html
- Google has its sights set on your next pair of luxury sunglasses | Digital Trends, 5月 22, 2025にアクセス、 https://www.digitaltrends.com/mobile/google-has-its-sights-set-on-your-next-pair-of-luxury-sunglasses/
テキスト量多すぎるのでさらに要約
Gemini様への続きの言葉
リサーチ結果をまとめて
出力結果が以下になります
Google I/O 2025は、2025年5月20日と21日に開催され、GoogleのAI戦略の深化と、それがAndroidエコシステムおよび開発者ツールにどのように統合されるかが主要なテーマとなりました。特に、Geminiの進化と広範な展開、Androidプラットフォームの多様なデバイスへの適応、そしてAndroid StudioにおけるAIを活用した開発効率の向上が大きな発表の柱でした。
Gemini:AIのさらなる進化と広範な統合
Geminiは、GoogleのAI戦略の中心に位置付けられ、その性能向上とGoogleのあらゆるプロダクトへの統合が強調されました。
-
Gemini 2.5の強化:
- Gemini 2.5 Proは、長文理解や動画理解において最先端の性能を示し、教育専門家と共同開発された「LearnLM」モデルの統合により、学習用途でもトップクラスの性能を発揮します。実験的な「Deep Think」モードは、より高度な推論を可能にし、数学やコーディングのベンチマークで優れた結果を出しました。
- Gemini 2.5 Flashは、速度と低コストに特化しつつ、推論、マルチモダリティ、コード、長文コンテキストの各ベンチマークで改善が見られ、効率性も向上しました。
-
新機能
- 「Native Audio Output」と「Live API」の改善により、より自然で表現豊かな会話体験が可能に。感情検出や背景ノイズの無視、思考プロセスの活用などが実現しました。
- 「Text-to-Speech」機能は、初の複数話者対応(2種類の声)と24以上の言語サポートを実現。
- 「Project Mariner」の「Computer Use」機能がGemini APIとVertex AIに統合され、時間のかかるタスクの自動化を支援します。
- セキュリティが強化され、間接プロンプトインジェクションに対する防御機能が大幅に向上しました。
- 開発者体験向上のため、「Thought Summaries」(モデルの思考プロセスの要約)、「Thinking Budgets」(思考に費やすトークン数を制御)、オープンソースツールとの連携を容易にする「MCPサポート」が導入されました。
-
Googleプロダクトへの展開:
- Google検索の「AIモード」 が米国で全ユーザーに展開され、複雑な質問への対応や、仮想試着、価格追跡、購入代行といったショッピング機能が追加されました。「Deep Search」機能も導入されます。
- ユニバーサルAIアシスタントを目指すProject Astraは、Geminiアプリのカメラと画面共有機能に統合され、Googleアプリの「Search Live」としても利用可能になります。
- Gmailではパーソナライズされたスマートリプライが登場し、Google Meetではリアルタイムの音声翻訳が実現します。
- 新しいAI映画制作アプリFlowが発表され、画像生成AIImagen 4と動画生成AIVeo 3が統合されます。Veo 3はネイティブオーディオに対応し、生成される動画に音声を含めることが可能になりました。
- AIでドキュメントを整理するNotebookLMがiOS/Androidアプリとしてリリースされ、ビデオ概要生成機能も追加されました。
- 3Dビデオ会議システム「Project Starline」は 「Google Beam」 に名称変更され、年内にHPとの提携によりデバイスが登場予定です。
- デスクトップ版ChromeにGeminiが統合され、ウェブページの要約や質問への回答などが可能に。
- Gemini 2.5 Proを搭載した自律型コーディングエージェント 「Jules」 のベータ版が公開され、GitHub連携によるテスト作成やバグ修正などを自律的に行います。
-
AIサブスクリプションプラン:
- 「Google AI Pro」(月額19.99ドル)と、より高度なAI利用と特典を提供する「Google AI Ultra」(月額249.99ドル)が発表されました。
Android:多様なデバイスでの体験向上とXRの未来
Androidプラットフォームは、最新OSの機能強化、XR(拡張現実)分野への進出、そして車載体験の拡張に注力しています。
-
Android OSのアップデート:
- Android 16のプレビュー版が公開され、ライブアップデート、プロフェッショナルなメディア・カメラ機能、デスクトップウィンドウ、接続ディスプレイ、大幅なアクセシビリティ強化が盛り込まれています。
- 新しいUIデザインであるMaterial 3 ExpressiveがWear OS 6を含むAndroidデバイスに導入され、より感情に訴えかけるUXと流動的なアニメーションが特徴です。
- Androidの16 KBページサイズへの移行を支援するため、Android Studioが互換性のないAPKビルド時に警告を出すなどのサポートを提供します。
-
Android XRの進化:
- AR/MR/VR分野をターゲットとした新プラットフォーム 「Android XR」 が改めて紹介されました。
- Android XRを搭載するデバイスとして、Xrealの 「Project Aura」スマートグラス と、Samsungとの共同開発による 「Project Moohan」VRヘッドセット (年内登場予定)が披露されました。
- スマートグラス向けのライブ翻訳機能のデモが披露され、アクセシビリティの向上が期待されます。
- Gentle MonsterやWarby ParkerといったアイウェアブランドもAndroid XRを活用したスマートグラスの開発を進めています。
-
車載エクスペリエンスの拡張:
- 開発者向けに車載エクスペリエンス構築の機会が拡大され、Gemini統合、新たなアプリカテゴリのサポート、開発・テストツールの改善が含まれます。
- Volvo車へのGemini AIチャットボットの導入も発表されました。
Android Studio:AIによる開発効率の飛躍的向上
Android Studioは、Geminiとの連携により、開発者の生産性を劇的に向上させる新機能が多数発表されました。
-
AI駆動型機能の強化:
- Gemini 2.5 ProがAndroid Studioに深く統合され、開発プロセスのあらゆる段階を支援します。
- 実験的機能である 「Journeys for Android Studio (Agentic AI)」 は、自然言語で記述するだけでアプリのユーザー体験テストを自動実行します。
- App Quality Insightsパネルはクラッシュの原因を分析し、修正案を直接提示する機能を提供します。
- Studio LabsのAI機能として、Composeプレビューの自動生成、UIの自然言語変換、画像添付と@Fileコンテキストによる文脈提供、Prompt Libraryのルール定義などが導入されました。
- ビジネス向けには、エンタープライズレベルのプライバシーとセキュリティ機能が追加されたGemini in Android Studioが提供されます。
-
開発者ツールの改善:
- Composeプレビューは、ナビゲーションの効率化やサイズの変更、リアルタイムUI調整により、UI作成を効率化します。
- 組み込みAndroid XRエミュレータにより、Android Studio内でXRアプリのデプロイやテストが直接可能に。
- アプリのバックアップと復元テストが簡素化され、Studio設定のバックアップと同期機能により、複数のインストール環境での設定管理が容易になります。
- Kotlin Multiplatform (KMP) のサポートが強化され、新しいプロジェクトテンプレートやライブラリの更新が提供されます。
-
実験的機能と今後の予定:
- Android Studio Cloud(実験的)は、ウェブブラウザから直接Android Studioが動作するLinux仮想マシンにアクセスできるサービスです。
- 「Version Upgrade Agent」と「Agent Mode」は、複雑な開発タスクや依存関係のアップグレードをAIが自律的に処理する機能として近日公開予定です。
- 「Play Policy Insights beta」は、Google Playポリシーに関するガイダンスをlintチェックとしてAndroid Studioに統合し、安全なアプリ開発を支援します。
かなりスッキリしましたね
終わり
動画を見漁るよりも楽に情報の獲得ができたのではと思います。
ただまとめたはいいものの、これが合っている保証がないという......
結局使い方としては、
- 気になったものがないかをピックアップするためにGeminiで情報収集
- 気になるものはセッション動画を見る
になりそうですね。
Geminiで実際に実行した方が参考サイト込みでかなり見やすいUIになっているので、そちらを利用することをお勧めします