Microsoft は 大規模言語モデル (LLM) をアプリにすばやく簡単に統合できる SDK である Semantic Kernel のドキュメントを更新し、Build 2023 にて発表された開発フレームワークである Copilot stack との連携強化を明確化しました。更新されたドキュメントを参照すると、Copilot stack に合わせた形で用語の変更もありました。
スキルをプラグインへ改名
Semantic Kernel で「スキル」と呼んでいた機能は「プラグイン」へ改名となります。その心は、Semantic Kernel でこれまで作成したセマンティック関数やネイティブ関数の集合であるスキルを Copilot stack における「プラグイン」としてエコシステムに柔軟に統合できるというビジョンに基づいています。
Copilot stack
Copilot stack は大規模 LLM をオーケストレーターとして利用し、複数のプラグインや外部システムの情報と連携させて GPT-4 のプラグイン機能や Microsoft の各製品に搭載される Copilot と連携したり独自の Copilot を開発できるフレームワークです。
プラグイン開発
ChatGPT 規格のプラグインを開発すれば、以下のようにブラウザ版 GPT-4 だけでなく、Bing や Microsoft 365 Copilot、Windows Copilot などからも利用可能になります。当然、組織独自の Copilot と統合することもできます。このプラグインによって、最新の情報や組織内のデータを反映させた(Grounding)回答を行ったり、ReAct などのタスクを実行させることが可能になります。Microsoft では、業界全体の連携を推進するために、プラグインの標準として OpenAPI プラグイン仕様の採用を進めています。
ここでは、ChatGPT のプラグインと Semantic Kernel のプラグイン(旧スキル) を区別して解説します。用語がごっちゃになりそうなの注意ですね。
①Semantic Kernel で ChatGPT プラグインを利用する
AI オーケストレーターとして Semantic Kernel が ChatGPT プラグインを呼ぶパターンです。これに関してはすでに以下の記事で紹介されています。
openapi-skills
②Semantic Kernel のプラグインを ChatGPT へ連携する
Semantic Kernel そのものを Web サービスとしてデプロイし、OpenAPI 仕様の ChatGPT プラグインとして利用できるようになります。これまで Semantic Kernel で開発したセマンティック関数とネイティブ関数の利用先がさらに広がります。
Azure AI Studio との統合
Build 2023 の Azure AI Studio のデモでもあったとおり、Azure Machine Learning 上のプロンプトフローに Semantic Kernel は統合される予定です。すでに開発環境をお持ちの方でもプロンプトフローにコードを持ってくることができ、Azure AI Studio 上でプロンプトの可視化、テスト、安全性評価、デプロイも行えるようになります。これにより Semantic Kernel 開発はさらに加速・スケールできるでしょう。
Semantic Kernel について学ぶ
Semantic Kernel 日本語解説