2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Microsoft Build 2025 基調講演: AIが拓く開発の未来とAgentic Web の世界

Last updated at Posted at 2025-05-20

image.png
Microsoft Build 2025 | Satya Nadella Opening Keynote
https://www.youtube.com/watch?v=SVkv-AtRBDY

Microsoft Build 2025の基調講演では、AIがソフトウェア開発のあらゆる側面に深く浸透し、開発者の体験を根本から変革する未来が示されました。本記事では、発表された主要なアップデートや新しいビジョンを体系的に整理し、それが開発者にとって何を意味するのかを掘り下げていきます。

目次


はじめに

Microsoft Build 2025の基調講演は、AIが単なるツールではなく、開発プロセス全体、さらには私たちがテクノロジーと関わる方法そのものを変革する力強い原動力であることを明確に示しました。Satya Nadella氏をはじめとする登壇者たちは、開発者があらゆるレイヤーでAIの力を活用し、これまでにないアプリケーションやエージェントを構築できるような、オープンでスケーラブルな「Agentic Web」のビジョンを提示しました。本記事では、このエキサイティングな発表の数々を詳細に解説し、開発者がこの新たな波にどう乗り出すことができるのかを探求します。


Part 1: 開発者体験の革新 - AIと共に創る未来

概要 (Part 1)

このパートでは、AIが開発ツールや開発プロセスにどのような変革をもたらしているかに焦点を当てます。Visual Studio、VS Code、GitHubといった馴染み深いツールがAIによって強化され、開発者の生産性向上と創造性の解放をどのように支援するのか、そして自律的にタスクを実行するAIエージェントの登場が開発ワークフローをどう変えるのかを見ていきます。

Chapter 1: 進化し続ける開発ツール群

Section 1.1: Visual Studio & VS Code - 最新アップデートと方向性

核となるメッセージ: Visual StudioファミリーとVS Codeは、AIの統合と継続的な機能改善により、開発者にとってより強力で効率的な開発環境を提供し続ける。

Visual Studioは、.NETおよびC++開発において最も強力なIDEとしての地位を確固たるものにしています。最新のアップデートでは、.NETの設計時ライブプレビュー、Gitツールの改善、クロスプラットフォームアプリのデバッグ機能強化などが発表されました。また、安定版リリースが月次サイクルに移行することも明らかにされ、より迅速な機能提供が期待されます。

VS Codeは、100回目のリリースを迎え、改善されたマルチウィンドウサポートやエディタ内でのステージング表示の容易化など、開発者の生産性をさらに高める機能が追加されました。

Section 1.2: GitHub - 開発者のホームとしての進化

核となるメッセージ: GitHubは、エンタープライズにおける勢いを増しつつ、トラスト、セキュリティ、コンプライアンスといった基本要素を強化し、あらゆるアプリケーション開発の基盤としての役割を深化させる。

GitHubは現在1億5000万人のユーザーを抱え、特にGitHub Enterpriseは企業での導入が加速しています。今日の開発環境において、信頼性、セキュリティ、コンプライアンス、監査可能性、データレジデンシーはますます重要になっており、GitHubはこれらの要件に応えるための投資を継続しています。

Section 1.3: GitHub Copilot - ペアプログラマーからピアプログラマーへ

核となるメッセージ: GitHub Copilotは、単なるコード補完ツールから、開発者の横で共に働く「ピアプログラマー」へと進化し、VS Codeコアへの統合とオープンソース化によって、その利用がさらに拡大する。

GitHub Copilotは1500万人以上の開発者に利用されており、その進化は目覚ましいものがあります。Build 2025での最大の発表の一つは、GitHub CopilotのVS Codeコアへのオープンソース統合です 🎊。これにより、AIを活用した機能がVS Codeの根幹に直接組み込まれ、世界で最も愛される開発ツールがさらに強力になります。

Copilotの機能も大幅に拡張されています。

  • コード補完からチャット、複数ファイル編集、そしてエージェントへと進化。
  • Javaのバージョンアップグレード(例: Java 8からJava 21へ)、.NETのアップグレード(例: .NET 6から.NET 9へ)、オンプレミスアプリケーションのクラウド移行といった複雑なタスクを実行可能に。
  • コード、依存関係の計画を作成し、修正を提案し、開発者からの変更を学習することで、プロセス全体をシームレスにします。

Chapter 2: 自律的に動作するAIエージェントの登場

Section 2.1: SRE (Site Reliability Engineering) エージェント

核となるメッセージ: SREエージェントは、システム運用におけるインシデント対応を自動化し、開発者や運用担当者の負担を大幅に軽減する可能性を秘める。

夜中に起こされてシステム障害に対応する、といったSREの典型的なペインポイントを解決するために、自律型SREエージェントが導入されます。このエージェントは、メモリリークなどの問題が発生すると、自動的にトリアージ、根本原因の特定、問題の緩和を行い、その後、修復アイテムを含むインシデント管理レポートをGitHub Issueとして記録します。さらに、これらの修復アイテムをGitHub Copilotに割り当てることも可能です。

Section 2.2: フルコーディングエージェント in GitHub

核となるメッセージ: GitHubに組み込まれるフルコーディングエージェントは、バグ修正や新機能開発といったコーディングタスクを自律的に完了させ、開発プロセスを根本から変える力を持つ。

GitHub Copilotをペアプログラマーから「ピアプログラマー」へと昇華させる、フルコーディングエージェントが発表されました。このエージェントには、バグ修正、新機能追加、コードメンテナンスといったIssueを割り当てることができ、これらのタスクを自律的に完了させます。この機能は、Build 2025の時点で全ての開発者に利用可能となりました。

デモのハイライト: Satya Nadella氏は、GitHub Issuesにある「ユーザーグループサイズによるコミュニティページのフィルター追加」というIssueをCopilotに割り当てるデモを行いました。CopilotはIssueをピックアップし、プルリクエストを作成して作業を開始しました。このプロセスでは、ブランチのセットアップ、GitHub Actionsによるコンピュート環境の生成、ドラフトPRのコミットなどが自動で行われます。

Section 2.3: オープンでセキュアなエージェントエコシステム

核となるメッセージ: Microsoftは、パートナーと共にオープンでセキュアなエージェントエコシステムを構築し、開発者とIT部門がエージェントを信頼して活用できる環境を目指す。

これらのエージェントは、セキュリティ対策を尊重しつつ、優れた開発者体験を提供します。エージェントは独自のブランチで作業し、開発者が設定したMCPサーバーのみを使用します。また、他のエージェントによるコードレビューや、CI/CD実行前の人間による確認といったプロセスを組み込むことも可能です。Microsoftは、SRE、SWE、コードレビューなど、さまざまなエージェントをパートナーが構築できるよう、これらのエンドポイントを公開していく方針です。

OpenAIが発表したコーディングエージェントについても言及があり、ソフトウェアエンジニアリングの進化におけるエージェントの役割について、Sam Altman氏(OpenAI CEO)との対談も行われました。

Part 1 まとめ

AIは、開発ツールの機能を拡張し、開発プロセスに自律性をもたらすことで、開発者体験を大きく変えようとしています。GitHub Copilotの進化とVS Codeへの統合、そしてSREエージェントやフルコーディングエージェントの登場は、開発者がより創造的で価値の高い作業に集中できる未来を示唆しています。これらのツールとエージェントがオープンなエコシステムの中で発展していくことで、開発の可能性は無限に広がることでしょう。


Part 2: Microsoft 365 Copilot と Copilot Studio - 業務効率化とカスタムAIエージェント構築

概要 (Part 2)

このパートでは、Microsoft 365 Copilotがどのように進化し、日々の業務をAIで支援するのか、そしてCopilot Studioを用いることで、開発者やビジネスユーザーが独自のAIエージェントを容易に構築・カスタマイズできるようになるのかを解説します。特に、マルチエージェントオーケストレーションやCopilotチューニングといった新機能がもたらす可能性に注目します。

Chapter 3: Microsoft 365 Copilot - AIによる業務変革

Section 3.1: 統合されたインテリジェント体験

核となるメッセージ: Microsoft 365 Copilotは、チャット、検索、ノートブック、作成、エージェント機能を一つの直感的なインターフェースに統合し、Webデータと業務データの両方を活用してユーザーの生産性を飛躍的に向上させる。

Microsoft 365 Copilotは大幅なアップデートが行われ、一般提供が開始されました。これは、Teamsのローンチ以来の大きなアップデートと位置付けられています。

  • チャット: Webデータと自身の業務データ(メール、ドキュメント、チャット履歴など)の両方にグラウンディングされた回答を提供。
  • 検索: Microsoft 365内のデータだけでなく、Confluence, Google Drive, Jira, ServiceNowなど、接続された様々なアプリケーションの情報を横断的に検索可能。
  • ノートブック: チャット、ページ、ドキュメント、メールなどを集約したコレクションを作成し、そこから音声レビューやポッドキャストを生成可能。
  • 作成: PowerPointから説明ビデオを生成したり、画像を生成したりすることが可能。

Section 3.2: 高度な専門知識を提供するエージェント

核となるメッセージ: Microsoft 365 Copilotに搭載される専門エージェントは、特定のタスクにおいて人間のような深い分析や洞察を提供し、ユーザーの意思決定を支援する。

  • Researcherエージェント: Webと企業のソースを横断して情報を統合し、深い思考連鎖(Chain of Thought)を適用して、あらゆるプロジェクトに関する調査・分析を実行。
  • Analystエージェント: 複数のソースファイル(例: Excelファイル)から生データを読み込み、洞察を抽出し、予測を行い、視覚化資料を作成。

これらのエージェントは、「指先で情報を得る(information at your fingertips)」から「指先で専門知識を得る(expertise at your fingertips)」への移行を象徴しています。

Section 3.3: Teamsとの連携とマルチプレイヤーエージェント

核となるメッセージ: Teams AIライブラリとエージェントストアを通じて、開発者はTeams内で動作するマルチプレイヤーエージェントを容易に開発・配布でき、コラボレーションのあり方を変革する。

Teamsは、Microsoft 365 Copilotの機能をマルチプレイヤー環境で活用可能にします。開発者が構築したエージェントはTeamsやCopilotに表示され、チャットや会議でエージェントを「@メンション」するだけで、質問応答、アクションアイテムの割り当て、ワークフローの開始などが可能になります。

Teams AIライブラリは、マルチプレイヤーエージェントの構築をこれまで以上に容易にし、MCP(Model Context Protocol)をサポートします。わずか1行のコードでA2A(Agent-to-Agent)通信を有効にすることも可能です。また、検索拡張生成(RAG)を用いたエピソード記憶や体系的記憶の追加もサポートされます。

開発者は、自身が構築したエージェントをエージェントストアに公開し、CopilotとTeamsを通じて数億人のユーザーにリーチし、新たなビジネス機会を創出できます。WorkdayエージェントやServiceNowエージェントなどのパートナー事例も紹介されました。

Chapter 4: Copilot Studio - カスタムAIエージェント開発の民主化

Section 4.1: ノーコード/ローコードでのエージェント構築

核となるメッセージ: Copilot Studioは、LLMと決定論的ワークフローを組み合わせたMCPエージェントフローや、複数のエージェントが協調して複雑なタスクを実行するマルチエージェントオーケストレーション機能を提供し、専門知識のないユーザーでも高度なAIエージェントを構築可能にする。

Copilot Studioには多くの新機能が追加され、完全なエージェントをCopilot Studio内で構築できるようになりました。特に注目すべきは以下の機能です。

  • MCPエージェントフロー: 大規模言語モデル(LLM)の柔軟性と、従来の決定論的なワークフロー(例: Power Automateフロー)の確実性を組み合わせることが可能に。
  • マルチエージェントオーケストレーション ✨: 複数の専門エージェントが協調して、より複雑なビジネスプロセスを自動化。
    • 具体例: 新入社員のオンボーディングプロセス。施設管理、財務、法務など、各分野の専門エージェントが連携し、プロセス全体を迅速かつスムーズに進める。

Section 4.2: Copilotチューニング - 企業特化型AIの実現

核となるメッセージ: Copilotチューニングにより、企業は自社の独自のトーン、言語、専門知識をCopilotに学習させ、真に自社に最適化されたAIアシスタントを実現できる。

Copilotチューニングは、Copilotを各企業、各組織に合わせてカスタマイズするための新機能です。

  • 学習: 企業独自のコミュニケーションスタイル、業界用語、社内ノウハウ、過去のドキュメントなどを学習。
  • プロセス: 少量の参照データをトレーニング環境に提供し、トレーニングを実行。
  • 権限管理: カスタマイズされたモデルは、ソースとなったデータの権限を継承。
  • 展開: 承認されたユーザーグループに対して、Copilot経由で展開。
  • ユースケース:
    • 法律事務所: 過去の判例や議論、関連文献を理解し、事務所特有のスタイルで回答や文書を生成。
    • コンサルティング会社: 特定の業界におけるワークフローやノウハウを反映したモデルを業界ごとにチューニング。

デモのハイライト (Mary氏):

  • Microsoft 365 CopilotアプリでResearcherエージェントがGitHubバックログを分析。
  • Visual StudioでGitHubコネクタを数ステップで構築。
  • Copilot StudioでRFP(提案依頼書)応答エージェントを構築。Dynamics MCPサーバーやカスタムSAP MCPサーバーと連携し、さらにコンプライアンスチェック専門エージェントとマルチエージェントオーケストレーションで連携。
  • Copilotチューニングで契約書作成に特化したモデルをファインチューニング。SharePointの契約書データベースを知識ソースとし、特定のチームにアクセス権を設定。

Part 2 まとめ

Microsoft 365 CopilotとCopilot Studioは、AIを日常業務や特定のビジネスプロセスに深く組み込むための強力なツールセットを提供します。統合されたインテリジェント体験、専門性の高いエージェント、そしてノーコード/ローコードでのカスタムエージェント開発と企業特化チューニング機能は、あらゆる規模の組織における生産性向上とイノベーションを加速させるでしょう。開発者は、これらのプラットフォームを活用して、より高度でパーソナライズされたAIソリューションを構築し、提供する機会を得ます。


Part 3: Azure AI Foundry - エンタープライズグレードAIアプリケーション開発基盤

概要 (Part 3)

このパートでは、エンタープライズグレードのAIアプリケーションとエージェントを構築、デプロイ、管理するための包括的なプラットフォームであるAzure AI Foundryについて詳述します。モデル選択の柔軟性から、高度なRAG機能、エージェントオーケストレーション、多様なコンピュートオプション、そしてエンタープライズレベルの監視・管理機能まで、FoundryがAI開発ライフサイクル全体をどのようにサポートするのかを解説します。

Chapter 5: モデル選択の自由度と柔軟性

Section 5.1: 幅広いモデルサポート

核となるメッセージ: Azure AI Foundryは、OpenAIの最新モデルに加え、Grok from xAI、Mistral、Llama、Hugging Faceなど、業界をリードする多様なモデルをサポートし、開発者に最適なモデルを選択する最大限の自由を提供する。

Azure AI Foundryは、すでに1,900以上のモデルをサポートしており、その中には応答モデル、推論モデル、タスク特化型モデル、マルチモーダルモデルなどが含まれます。

  • OpenAI: 最新モデルへの同日アクセスを提供。Soraも近日対応予定 🚀。
  • Grok from xAI: Elon Musk氏率いるxAIのGrokモデルがAzureで利用可能に。推論、リサーチ、応答機能を単一モデルで提供。
  • Mistral: EUリージョンでのソブリンデプロイメントオプションも提供。
  • Llama (Meta): オープンソースモデルの進化をAzure上でサポート。
  • Hugging Face: 11,000以上のフロンティアモデルおよびオープンソースモデルへのアクセスを提供。

Section 5.2: プロビジョニングスループットの共有

核となるメッセージ: Foundry上で一度プロビジョニングしたスループットを、Grokを含む複数のモデル間で共有できる機能により、コスト効率と運用柔軟性が大幅に向上する。

従来、モデルごとにスループットを個別に確保する必要がありましたが、Foundryでは、一度確保した処理能力を複数の異なるモデル(例: OpenAIモデル、Grok、Mistral)で共有できるようになります。これにより、開発者はモデルの選択や切り替えをより柔軟に行え、コスト効率も最適化できます。

Chapter 6: 高度なAIアプリケーション構築機能

Section 6.1: RAG (Retrieval Augmented Generation) の進化

核となるメッセージ: Foundryは、エージェントが複雑なクエリを分解・並列実行し、統合された結果を返すための、エージェント専用にカスタムビルドされた高度な検索システムを提供することで、RAGアプリケーションの品質を向上させる。

効果的なRAGアプリケーションを構築するには、単なるベクトルデータベース以上のもの、すなわち真のナレッジエンジンやクエリエディタが必要です。Foundryは、ユーザーの意図とデータの意味を理解する、エージェントのための最新のナレッジ検索スタックを提供します。

Section 6.2: Foundry Agent Service

核となるメッセージ: Foundry Agent Serviceは、宣言的なエージェント構築とAutoGenを活用したマルチエージェントオーケストレーションをサポートし、複雑なAIワークフローの実装を簡素化する。

Foundry Agent Serviceは一般提供が開始されました。

  • ポータル上で数行のコードを書くだけで宣言的にエージェントを構築可能。
  • 複雑なワークフローのために、AutoGenと連携したマルチエージェントオーケストレーションをサポート。
  • マネージドサービスとして利用可能。

Section 6.3: 多様なコンピュートオプション

核となるメッセージ: Foundryは、サーバーレスからコンテナ、Kubernetesまで、あらゆる規模と要件に対応するフルスペクトラムのコンピュートオプションを提供し、エージェントシナリオに最適な価格性能比を実現する。

  • Serverless Azure Functions
  • Azure Container Apps
  • Azure Kubernetes Service (AKS)
    Foundryをこれらのコンピュートサービスに接続し、オープンソースモデルをAKSにデプロイすることが可能です。これはクラウドだけでなく、Arcを通じたハイブリッド環境やエッジデバイスでもサポートされます。

Section 6.4: Copilot Studioとのシームレスな連携

核となるメッセージ: Foundryでファインチューニングや後訓練を行ったモデルをCopilot Studioに直接ドロップして活用できる連携により、高度にカスタマイズされたAIエージェントの構築とビジネスプロセスへの統合が加速する。

開発者は、Foundryで特定のタスクやデータに合わせてモデルを調整し、そのモデルをCopilot Studioに持ち込んで、ノーコード/ローコードでワークフローを自動化したり、エージェントを構築したりできます。
事例: Stanford Medicineは、FoundryとCopilot Studioを活用し、患者履歴、放射線画像、PubMedデータなどを連携させる複数のエージェントをオーケストレーションし、がん治療の腫瘍ボード会議をAIで支援するシステムを構築しました。このHealthcare Agent OrchestratorはFoundryで利用可能になりました。

Chapter 7: エンタープライズ対応の運用と管理

Section 7.1: 監視機能 (Observability)

核となるメッセージ: Foundryに新たに追加される監視機能により、AIアプリケーションのインパクト、品質、安全性、コストを単一の場所で追跡・管理でき、本番環境でのAI運用を支援する。

AIモデルやエージェントのパフォーマンス、利用状況、コストなどを一元的に把握し、継続的な改善を可能にします。

Section 7.2: エージェントのためのID管理とセキュリティ

核となるメッセージ: Entra ID、Purview、Defenderといった既存のエンタープライズ向け管理・セキュリティツールがFoundryと統合され、AIエージェントに対しても人間と同様の堅牢なID管理、データガバナンス、脅威保護を提供する。

将来的に、組織内では人間とAIエージェントが協調して働くことが常態化すると考えられます。そのため、既存のID管理、エンドポイント管理、セキュリティシステムをエージェントにも拡張することが不可欠です。

  • Entra ID: FoundryやCopilot Studioで構築されたエージェントは、Entra ID内で独自のID、権限、ポリシー、アクセス制御を持つようになります。ServiceNowやWorkdayのエージェントもEntra ID経由で自動プロビジョニング・管理が可能に。
  • Purview: Foundryと統合され、エンドツーエンドのデータ保護を保証。
  • Defender: Foundryと統合され、エージェントをウォレットの不正利用や認証情報窃取といった脅威から保護。

Section 9.4: ハイブリッドRAGアプリケーション

核となるメッセージ: Windows AI Foundryは、プライバシーを保護しつつローカルデータにアクセスできるベクトルストアとセマンティックAPIを提供し、クラウドとローカルの情報を組み合わせたハイブリッドRAGアプリケーションの構築を可能にする。

デバイス上の個人データやアプリケーションデータを活用しつつ、クラウドの知識も組み合わせることで、よりパーソナライズされ、文脈に応じたAI体験を提供できます。

Chapter 10: Agentic WebのためのWindows - MCPネイティブサポート

Section 10.1: ファイルシステム、設定、アプリアクションなどの組み込みMCPサーバー

核となるメッセージ: Windowsは、ファイルシステム、OS設定、アプリアクションといったOSのコア機能にアクセスするための組み込みMCPサーバーをネイティブにサポートし、AIエージェントがWindows環境とより深く連携できるようにする。

MCP (Model Context Protocol) は、AIエージェントが外部のサービスやデータと対話するための標準プロトコルとして注目されています。Windowsがこれをネイティブサポートすることで、エージェントはOSレベルの機能(ファイルの読み書き、設定変更、アプリケーションの操作など)を安全かつ標準化された方法で利用できるようになります。

Section 10.2: ネイティブMCPレジストリによるセキュアなサーバー検出

核となるメッセージ: Windowsに搭載されるネイティブMCPレジストリは、セキュリティとパフォーマンスが検証されたMCPサーバーをエージェントが安全に発見・利用できるようにし、ユーザーコントロールを維持しつつエコシステムの成長を促進する。

エージェントが利用できるMCPサーバーの一覧を管理し、ユーザーがどのエージェントにどのサーバーへのアクセスを許可するかを制御できるようにします。

デモのハイライト (Divya氏):

  • VS CodeとGitHub Copilot(エージェントモード)を使用。
  • 最初の2文で、WSL (Windows Subsystem for Linux) の最新版を検索・インストールし、Fodora内にシンプルなWebサイトプロジェクトをセットアップするようCopilotに指示。
    • CopilotはWSL MCPサーバーとセキュアに接続し、ユーザーの同意を得てタスクを実行。
  • 3番目の文で、Figmaで選択したデザインのようにWebサイトを更新するよう指示。
    • CopilotはFigma MCPサーバーと接続し(MCPレジストリで関連サーバーを発見後、ユーザー同意を得る)、デザイン詳細を取得してプロジェクトに適用。
  • 結果として、3文の指示だけで、WSL環境のセットアップからFigmaデザインに基づいたWebサイト構築までが完了。

Chapter 11: WSL (Windows Subsystem for Linux) のオープンソース化 🎉

Section 11.1: コミュニティへの貢献と透明性の向上

核となるメッセージ: WSLの完全なオープンソース化は、コミュニティによる貢献を促進し、開発の透明性を高め、WindowsをLinux開発者にとってもさらに魅力的なプラットフォームにする。

約10年前にBash on Windowsとして発表されて以来、WSLは大きく進化してきました。当初からオープンソース化の要望がありましたが、Windowsイメージとの分離が困難でした。しかし、その後のアーキテクチャ変更により分離可能となり、今回、WSLの完全なオープンソース化が発表されました。

Part 4 まとめ

Windowsは、Foundry LocalとWindows AI FoundryによってローカルAI開発・実行の強力なプラットフォームへと進化し、デバイス上での高度なAI体験を実現します。Phi SilicaモデルとLauraアダプターによるオンデバイスカスタマイズ、MCPのネイティブサポートによるAgentic Webへの対応、そしてWSLのオープンソース化は、Windowsが開発者にとって最もオープンで革新的な環境の一つであり続けるというMicrosoftのコミットメントを示しています。


Part 5: Agentic Web - オープンで分散化されたAIの未来

概要 (Part 5)

このパートでは、MicrosoftのCTOであるKevin Scott氏が提唱する「Agentic Web」のビジョンと、その構成要素、そして実現に向けたMicrosoftの具体的な取り組みについて解説します。Agentic Webは、AIエージェントがより自律的に、かつ相互に連携しながら動作する、オープンで分散化された次世代のウェブの形を目指すものです。

Chapter 12: Agentic Webのアーキテクチャ

Section 12.1: エージェント層 - 多様化するAIアシスタント

核となるメッセージ: Agentic Webの最上位には、人間がタスクを委任できる、ますます複雑な処理が可能な多様なAIエージェントが存在する。

エージェントは、人間からタスクを委任される存在として定義されます。これらのエージェントは、ソフトウェアエンジニアリングのような複雑なタスクもこなせるようになりつつあり、その利用頻度も急速に増加しています。

Section 12.2: ランタイム層 - 推論とメモリの進化

核となるメッセージ: エージェントの能力を支えるランタイム層では、特に推論能力が飛躍的に向上しており、さらにエージェントが過去の対話や経験を記憶し活用するための「Agentic Memory」技術が重要となる。

  • 推論 (Reasoning): 現在のモデルの推論能力は非常に高く、まだそのポテンシャルを十分に引き出しきれていない「能力のオーバーハング」状態にある可能性も指摘されています。開発者は、この高度な推論能力を最大限に活用する野心的なアプリケーションを目指すべきです。
  • メモリ (Memory): エージェントが単なるトランザクション処理を超え、過去のインタラクションを記憶し、パーソナライズされた体験を提供するためには、リッチなメモリ機能が不可欠です。Microsoftは、この課題に取り組むためにオープンソースシステム「TypeAgent (TypeChatの文脈から、おそらくエージェントの記憶に関する何らかのシステム名。原文では"type agent"と聞こえるが、文脈からTypeChatの関連技術か、あるいは新しいシステム名かもしれない。ここでは仮に「TypeAgent」とする)」などを開発しています。

Section 12.3: プロトコル層 - MCPとA2A

核となるメッセージ: エージェントが現実世界で行動を起こし、他のエージェントやサービスと連携するためには、MCPやA2A (Agent-to-Agent) といったオープンで相互運用可能なプロトコルが不可欠となる。

エージェントがユーザーの代わりにタスクを実行するためには、外部の世界と接続するための標準化された方法が必要です。MCP (Model Context Protocol) は、そのシンプルさと拡張性から、エージェント間およびエージェント-サービス間通信の標準プロトコルとして急速に普及しています。MicrosoftはMCPを全面的にサポートし、自社プラットフォームやサービスへの適用を進めています。

Chapter 13: NL Web - Agentic WebのためのHTML

Section 13.1: WebサイトやAPIをエージェント対応アプリケーションに

核となるメッセージ: NL Webは、既存のWebサイトやAPIを容易にエージェント対応アプリケーション(Agentic Application)へと変換するためのフレームワークであり、Agentic Webにおける「HTML」のような役割を果たすことを目指す。

NL Webは、自然言語インターフェースを通じてWebサービスやAPIを利用可能にするためのオープンソースプロジェクトです。これにより、開発者は既存の資産を活かしつつ、AIエージェントが理解し操作できる形でサービスを提供できます。

Section 13.2: 大規模言語モデルの力を活用

核となるメッセージ: NL Webは、大規模言語モデル(LLM)の能力を最大限に活用し、自然言語によるリクエストを解釈して適切なアクションを実行することで、リッチなエージェント体験を実現する。

ユーザーやエージェントからの自然言語による指示を、LLMが解釈し、NL Webエンドポイントが提供する機能へとマッピングします。

Section 13.3: デフォルトでMCPサーバーとして機能

核となるメッセージ: 全てのNL WebエンドポイントはデフォルトでMCPサーバーとして機能するため、MCPを話すあらゆるエージェントからシームレスにアクセス可能となり、Agentic Webの相互運用性を高める。

これにより、NL Webで構築されたサービスは、Agentic Webエコシステムの一部として容易に組み込まれ、様々なエージェントから利用されることが期待されます。
デモのハイライト: GitHubリポジトリに対してNL Webユーザーインターフェースを構築するデモが紹介されました。スクリプトを実行することで、リポジトリのメタデータやデータをNL Webリポジトリに取り込み、ローカルのベクトルストアにエンべディングを保存。その後、「以前書いたPR内のアルゴリズム名を思い出したい」といった自然言語クエリでリポジトリ情報を検索できる様子が示されました。

Part 5 まとめ

Agentic Webは、AIエージェントがより自律的かつ協調的に動作し、オープンなプロトコルを通じて相互に連携する未来のウェブの姿です。Microsoftは、MCPのような標準プロトコルの推進、NL Webのようなフレームワークの提供、そしてAzure AI FoundryやWindows AI Foundryといった基盤技術の整備を通じて、このビジョンの実現をリードしようとしています。開発者は、これらのツールと概念を活用して、次世代のインテリジェントなアプリケーションとサービスを構築する大きな機会を手にしています。オープン性が鍵となり、多様な開発者の創造性がAgentic Webを豊かにしていくことが期待されます。


Part 6: データとインフラ - AIを支える基盤技術の進化

概要 (Part 6)

このパートでは、高度なAIアプリケーションとAgentic Webを支える根幹となる、データプラットフォームとAIインフラストラクチャの最新動向について解説します。SQL Serverの次期バージョン、Cosmos DBとFoundryおよびFabricの統合強化、Power BIにおけるCopilotの進化、そしてNVIDIAとの連携による最先端AIスーパーコンピュータの提供など、データとコンピュートの両面でのMicrosoftの取り組みを紹介します。

Chapter 14: データプラットフォームの進化

Section 14.1: SQL Server 2025の登場

核となるメッセージ: SQL Server 2025が発表され、データレイヤーとインテリジェンスレイヤーの連携がこれまで以上に強化される。

詳細は今後の発表が待たれますが、AI時代に対応したデータベースプラットフォームとしての進化が期待されます。

Section 14.2: Cosmos DBとFoundryの統合強化

核となるメッセージ: Cosmos DBがAzure AI Foundryに直接統合され、会話履歴の保存やRAGアプリケーションのデータストアとしての活用が容易になり、リアルタイムAIアプリケーションのデータ基盤を強化する。

リアルワールドのエージェントは永続的なストレージを必要とします。Cosmos DBのFoundryへの統合により、エージェントの記憶やRAGのためのデータ管理がシームレスになります。

Section 14.3: Azure Data Strikes - データとAI機能の連携

核となるメッセージ: Azure Data Strikes(おそらくAzure Data Lake Storageの機能強化や新サービスを指す)により、データレイク内のデータとFoundryのAI機能を直接連携させ、LLMの応答をデータ処理パイプラインに統合することが可能になる。

自然言語とSQLを組み合わせたクエリなど、データアクセスとAI処理の融合が進みます。

Section 14.4: Fabricの機能拡張

核となるメッセージ: Microsoft Fabricは、Cosmos DBの統合、ノーコード/ローコードでのデジタルツインビルダー、Foundryを活用したAI変換機能(ショートカット変換)の追加により、統合分析プラットフォームとしての能力をさらに拡大し、あらゆるデータをAI対応にする。

  • Cosmos DB統合: Fabric内でCosmos DBのデータ(テキスト、画像、音声など非構造化データも含む)をSQLデータなどと共に統合的に扱えるように。
  • デジタルツインビルダー: ノーコード/ローコードで物理資産やシステムのデジタルツインを容易に構築。
  • ショートカット変換: データ取り込み時に、音声テキスト変換、感情分析、要約といったAI変換処理をFoundryの力を使って数クリックで適用可能。

Section 14.5: Power BIにおけるCopilot - データとの対話型分析

核となるメッセージ: Power BIにCopilotが搭載され、自然言語でデータに関する質問をしたり、複数のレポートやセマンティックモデルを横断して視覚的に探索・分析したりすることが可能になり、データ活用のハードルを大幅に下げる。

このPower BI向けCopilotエージェントは、Microsoft 365 Copilot内でも利用可能になる予定です。Power BIで構築したセマンティックモデルの上に推論モデルを乗せ、チャットインターフェースで対話できるようにすることで、データ分析のあり方が大きく変わる可能性があります。

Chapter 15: AIのためのインフラストラクチャ

Section 15.1: システムアプローチによる最適化 (トークン/ワット/ドル)

核となるメッセージ: Microsoftは、データセンター、シリコン、システムソフトウェア、アプリケーションサーバーに至るまで、スタック全体を最適化するシステムアプローチにより、「トークンあたり、ワットあたり、ドルあたりのコスト」を最小化し、最も効率的なAIインフラストラクチャの提供を目指す。

ムーアの法則、システムソフトウェア最適化、モデル最適化という3つのSカーブの複合効果により、AIワークロードの効率を追求します。

Section 15.2: NVIDIAとの連携強化 - GB200ベースのスーパーコンピュータ

核となるメッセージ: AzureはNVIDIAの最新GPU(GB200など)をいち早く大規模に導入し、世界最大級のAIスーパーコンピュータを構築することで、最も要求の厳しいAIトレーニングおよび推論ワークロードに対応する。

Azureは、NVIDIAのHopperアーキテクチャ(H100)に続き、次世代のBlackwellアーキテクチャ(GB200)ベースのスーパーコンピュータを構築し、提供します。Jenson Huang氏(NVIDIA CEO)との対談では、過去2年間で40倍の高速化を達成したことや、CUDAエコシステムの重要性が語られました。

Section 15.3: データセンターの拡張と革新

核となるメッセージ: Microsoftは、世界70以上のデータセンターリージョンを展開し、AIワークロードの需要に応えるために冷却技術やネットワークインフラを革新し続けている。

  • データセンターリージョン: 過去3ヶ月だけで10のデータセンターを開設。
  • 冷却技術: Mayaプロジェクトの一環として、GB200をサポートするSidekick液体冷却ユニットを導入。閉ループ方式で水を消費しない設計。
  • ネットワーク: 最新のAI向けデータセンターには、昨年以前のAzure全体よりも多くの光ファイバーを敷設。データセンター間を接続するAI RAN 400テラビットバックボーンも構築。

Section 15.4: Cobalt CPUの展開とパートナー事例

核となるメッセージ: Microsoftが開発したARMベースのCobalt CPUは、TeamsやDefenderといった自社の大規模ワークロードで活用されると共に、Adobe, DataBricks, Snowflakeといったパートナーにも採用され、汎用コンピューティングにおける効率向上にも貢献する。

AIアクセラレータだけでなく、汎用CPUにおいても効率化を進めています。
事例: 英国気象庁(Met Office)は、AzureのAIアクセラレータとCobalt CPUを活用して、気候変動予測モデルの精度向上と実行速度の高速化を実現しています。

Part 6 まとめ

AIアプリケーションの性能と効率は、それを支えるデータプラットフォームとインフラストラクチャに大きく依存します。Microsoftは、FabricやCosmos DBといったデータサービスを進化させるとともに、NVIDIAとの強力なパートナーシップを通じて最先端のAIハードウェアを提供し、データセンターの設計からシステムソフトウェアに至るまで、スタック全体での最適化を推進しています。これにより、開発者は最も困難なAI課題に取り組み、革新的なソリューションを大規模に展開するための強力な基盤を得ることができます。


Part 7: Microsoft Discovery - AIによる科学研究の加速

概要 (Part 7)

このパートでは、科学研究のプロセスそのものを変革し、新たな発見を加速することを目的とした新プラットフォーム「Microsoft Discovery」について紹介します。グラフベースの知識エンジン、Foundryを活用した研究開発特化型エージェント、そして継続的な実験と学習のループを通じて、科学者が直面する複雑な課題の解決を支援します。

Chapter 16: 科学研究のための統合プラットフォーム

Section 16.1: グラフベース知識エンジンとGraph RAG

核となるメッセージ: Microsoft Discoveryは、科学文献や研究データから複雑な関係性を理解するグラフベースの知識エンジンとGraph RAG技術を活用し、単なる事実検索を超えた深い洞察を提供する。

従来のRAGが主にテキスト検索に依存するのに対し、Graph RAGはエンティティ間の関係性をグラフ構造で表現・活用することで、よりニュアンスに富んだ、文脈に基づいた知識検索と推論を可能にします。

Section 16.2: Foundryベースの高度な研究開発特化型エージェント

核となるメッセージ: DiscoveryはAzure AI Foundryを基盤とし、推論だけでなく研究活動そのものを実行できる、高度に専門化されたR&Dエージェント群を提供する。

これらのエージェントは、特定の科学分野(例: 化学、生物学、材料科学)の知識を持ち、実験計画の立案、シミュレーションの実行、結果の分析といったタスクを自律的または半自律的に行います。

Section 16.3: 継続的・反復的な研究サイクル (候補生成、シミュレーション、学習)

核となるメッセージ: Discoveryは、静的なパイプラインではなく、エージェントが協調して候補物質や仮説を生成し、シミュレーションで検証し、その結果から学習するという、継続的かつ反復的な研究サイクルをサポートする。

これにより、試行錯誤のプロセスが大幅に高速化され、従来は数ヶ月から数年かかっていた研究開発期間を数日、あるいは数時間に短縮できる可能性があります。

Chapter 17: ユースケース - 新素材開発 (液浸冷却材)

Section 17.1: 研究、仮説生成、実験のデモンストレーション

核となるメッセージ: データセンター向けの環境負荷の低い新しい液浸冷却材の開発を例に、Discoveryプラットフォームが研究プロセスをどのように支援するかが示された。

デモのハイライト (John氏):

  1. 研究: 既存の冷却材に関する最新知識を収集し、有望な候補化合物の特定を開始。プラットフォームは公開情報と信頼できる内部研究の両方から科学的知識を推論。
  2. 仮説生成: 特定の沸点や誘電率といった目標特性に基づき、エージェントチームが研究計画(ワークフロー)を構築。数百万の新規候補化合物を生成し、AIモデルでスクリーニング。
  3. 実験: Discoveryが計画全体を実行。AzureのHPCリソースを最適に選択・管理し、計算を実行。

Section 17.2: 実際の発見とその意義

核となるメッセージ: このデモンストレーションは単なる概念実証ではなく、実際に有望なPFASフリーの液浸冷却材候補を発見し、実験室で合成・検証することに成功した。

発見された候補物質の一つは実際に合成され、PCをその液体に浸して動作させる実験映像が公開されました。これは、Discoveryプラットフォームが現実の科学的ブレークスルーを生み出す能力を持つことを示しています。

Part 7 まとめ

Microsoft Discoveryは、GitHubがソフトウェア開発者にとって、Microsoft 365 Copilotがナレッジワーカーにとってそうであるように、科学者にとって不可欠なプラットフォームとなることを目指しています。高度なAIエージェント、グラフベースの知識推論、そして反復的な研究サイクルを通じて、新薬開発、新材料創製、半導体研究など、さまざまな科学分野における発見のペースを劇的に加速させる可能性を秘めています。このプラットフォームが、世界のR&Dラボで活用されることで、人類が直面する困難な課題の解決に貢献することが期待されます。


おわりに

Microsoft Build 2025の基調講演は、AIが開発のあらゆる段階、あらゆる領域で中心的な役割を果たす未来を鮮明に描き出しました。開発者ツールの進化、Copilotによる業務変革、Azure AI FoundryによるエンタープライズAI開発の加速、WindowsのAIプラットフォーム化、そしてAgentic Webという新たなビジョン、さらにはMicrosoft Discoveryによる科学研究の革新まで、発表された内容は多岐にわたり、その全てが「開発者の可能性を最大限に引き出す」という共通の目標に向かっています。

Satya Nadella氏が最後に触れた、ナイジェリアの学生がCopilotを利用して学習効果を上げたという世界銀行の調査結果や、ペルーの教師がCopilotで授業計画を改善している事例は、これらのテクノロジーが単なる効率化ツールではなく、教育や社会課題の解決にも貢献しうることを示唆しています。

開発者は、これらの新しいツール、プラットフォーム、そして概念を手に、これまでにないアプリケーションを創造し、世界にポジティブな影響を与える大きな機会を得ています。Microsoftが提供するこの「Agentic Web」への招待状を受け取り、共に未来を築いていくことが、今、私たち開発者に求められているのかもしれません。

2
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?