3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

MCP(モデルコンテキストプロトコル)とは何か、そしてその動作原理

Posted at

本記事は元々 blog.logto.io に掲載されたものです。

MCPとは何か?

MCP(モデルコンテキストプロトコル) は、大規模言語モデル(LLM)にコンテキスト情報をどのように提供するかを標準化するオープンでユニバーサルなプロトコルです。

簡単に言えば、HTTPプロトコルが異なるウェブサイトやブラウザが同じルールに従って情報を交換できるようにするのと同様に、MCPはAI世界のHTTPプロトコルのようなものです。MCPは、異なるAIモデルがさまざまなデータソースやツールに標準化された方法で接続できるようにします。この標準化により、開発者はモデルやデータソースごとに専用のインターフェースを作成せずにAIアプリケーションを構築しやすくなります。

なぜMCPが必要なのか?

大規模言語モデル(LLM)は強力ですが、いくつかの重要な制限に直面しています:

  • 知識の限界と更新の課題: LLMは、トレーニングデータに含まれる情報しか知りません。たとえば、GPT-4の知識は2023年4月で終了しています。大規模言語モデルのトレーニングには莫大な計算リソースと時間が必要で、新しいバージョンを完成させるのには通常6か月以上かかります。このため、モデルの知識は常に「古い」状態になり、更新には非常に高い費用と時間がかかります。新しいモデルがトレーニングを終了したときには、既にその知識が遅れ始めているのです。

  • 専門領域の知識の欠如: LLMは公に利用可能な一般データを使用して訓練されています。特定のビジネスシナリオにおける専門データや情報を深く理解することはできません。たとえば、医療機関の内部プロセス、企業の製品カタログ、組織の特許知識はモデルの訓練範囲には含まれていません。

  • 外部データへのアクセスに関する統一基準がない: 現在、RAG(Retrieval-Augmented Generation)、ローカルナレッジベース、インターネット検索など、LLMに追加情報を提供するための多くの方法があります。異なる開発チームが異なる統合ソリューションを提供し、システム間の統合コストが高くなっています。専門領域のデータを含むシステム(CRM、ERP、医療記録システムなど)は、LLMとシームレスに統合するのが難しいです。統合にはカスタム開発が必要で、共通の標準化された方法が欠けています。

これがMCPが必要な理由です。MCPは、LLMが一貫した方法で外部情報やツールにアクセスできる標準化されたプロトコルを提供し、上記の問題をすべて解決します。MCPを通じて、次の重要な利点を得ることができます:

  • 豊富なプリビルド統合: MCPは、ファイルシステム、データベース(PostgreSQL、SQLite)、開発ツール(Git、GitHub、GitLab)、ネットワークツール(Brave Search、Fetch)、生産性ツール(Slack、Google Maps)など、多くの準備されているサーバー統合を提供します。これにより、これらの統合をゼロから構築する必要はなく、これらのプリビルトコネクタを使用して、LLMにこれらのシステムのデータにアクセスさせることができます。

  • LLMプロバイダー間の柔軟な切り替え: 今日はGPT-4を使用している場合、明日はClaudeやGeminiを試したくなるか、異なるシナリオで異なるLLMを使用したいかもしれません。MCPを使用すれば、アプリケーションの統合ロジックをすべて書き直す必要はありません。基礎となるモデルを変更するだけで、すべてのデータとツールの統合がそのまま維持されます。

  • 高度なAIワークフローの構築: 複数のデータベースにクエリを実行し、ドキュメントを比較するための特定のツールを使用してレポートを生成する必要がある法的文書解析システムをイメージしてください。MCPを使用すると、LLMをベースにこのような複雑なエージェントやワークフローを構築することができます。

MCPの動作原理

MCPでは、MCPサーバー(ツールとデータアクセスを提供)、MCPクライアント(LLMに組み込まれ、MCPサーバーと通信する)、およびMCPホスト(Claude Desktop、Cursorなど、LLMとクライアントを統合するアプリケーション)という3つの主要な役割があります。これら3つの役割がどのように連携するかを詳しく見てみましょう。

MCPサーバー

MCPサーバーは、LLMが使用できるツールとデータアクセス機能を提供するプログラムです。伝統的なリモートAPIサーバーとは異なり、MCPサーバーはユーザーのデバイス上でローカルアプリケーションとして動作することも、リモートサーバーにデプロイされることもできます。

各MCPサーバーは、ローカルデータまたはリモートサービスから情報を取得するために特定のツールセットを提供します。LLMがタスクを処理する際に特定のツールを使用する必要があると判断した場合、MCPサーバーが提供するツールを使用して必要なデータを取得し、LLMに返します。

MCPクライアント

MCPクライアントは、LLMとMCPサーバーをつなぐ橋渡し役です。LLMに組み込まれたものであり、以下の役割を負っています:

  • LLMからのリクエストを受け取る
  • 適切なMCPサーバーにリクエストを転送する
  • MCPサーバーからの結果をLLMに返す

MCPクライアントを開発する を参照して、MCPクライアントのLLM統合についてさらに学ぶことができます。

MCPホスト

Claude Desktop、IDEs(Cursorなど)、またはMCPを通じてデータにアクセスしたいAIツールなどのプログラムです。これらのアプリケーションは、LLMとのやり取りのインターフェースをユーザーに提供し、MCPクライアントを統合してMCPサーバーに接続し、MCPサーバーが提供するツールを使用してLLMの機能を拡張します。

MCPワークフロー

上記の3つの役割が最終的にMCPを基にしたAIアプリケーションを形成します。

このシステムの例となるワークフローは次のようになります:

MCPサーバーの構築方法

MCPサーバーはMCPシステムの最も重要なリンクです。LLMがどのデータにアクセス可能かを決定し、AIアプリケーションの機能の境界と能力に直接影響を与えます。

MCPサーバーの構築を開始するには、先ず公式MCP クイックスタートガイド を読むことをお勧めします。このガイドには、環境設定からMCPサーバーの実装および使用までのプロセスが詳細に説明されています。ここでは、核心となる実装詳細のみ説明します。

MCPサーバーが提供するツールの定義

MCPサーバーの核心機能は、server.tool() メソッドを通じてツールを定義することです。これらのツールはLLMが外部データを取得したり、特定の操作を行ったりするために呼び出すことができる関数です。Node.jsを使用した簡単な例を見てみましょう:

// 会社のナレッジベースを検索するためのツールを定義します
server.tool(
  "search-documents",
  "会社のナレッジベースで文書を検索",
  {
    query: z.string().describe("検索キーワードまたは質問"),
    max_results: z.number().default(5).describe("返す結果の最大数")
  },
  async ({ query, max_results }) => {
    // 実際の実装はナレッジベースシステムに接続します
    // 簡易例を返します
    const results = [
      "製品マニュアル v2.1",
      "よくある質問",
      "技術仕様"
    ].slice(0, max_results);
    
    const formattedResults = results.map((title, index) => 
      `${index + 1}. ${title}`
    ).join("\n");
    
    return {
      content: [
        {
          type: "text",
          text: `'${query}' の結果:\n${formattedResults}`
        }
      ]
    };
  }
);

この例では、search-documentsというツールを定義しています。これは、問い合わせ文字列と最大結果数をパラメータとして受け取ります。ツールの実装はナレッジベースシステムに接続し、クエリ結果を返します。

LLMはユーザーの質問に基づいてこのツールの定義を使用するかどうかを決定します。必要な場合、LLMはこのツールを呼び出して結果を得て、その結果をユーザーの質問と組み合わせて回答を生成します。

ツール定義のベストプラクティス

このようなツールを構築する際は、以下のベストプラクティスに従うことができます:

  • 明確な説明: 各ツールに詳細で正確な説明を提供し、その機能、適用シナリオ、制限をはっきりと述べます。これにより、LLMが適切なツールを選びやすくなるだけでなく、開発者がコードを理解・保守しやすくなります。
  • パラメータのバリデーション: Zodや類似のライブラリを使用して入力パラメータを厳密に検証し、正しい型、妥当な値の範囲、および非準拠の入力を拒否します。これは、バックエンドシステムへのエラーの伝播を防ぎ、全体の安定性を向上させます。
  • エラーハンドリング: 包括的なエラーハンドリング戦略を実装し、考えられる例外をキャッチし、ユーザーフレンドリーなエラーメッセージを返します。これにより、ユーザーエクスペリエンスが向上し、LLMはエラー条件に基づいて意味のある応答を提供できるようになり、単に失敗するのではなくなります。
  • データアクセス制御: バックエンドリソースAPIに堅牢な認証および認可のメカニズムを実装し、許可範囲を慎重に設計して、MCPサーバーがユーザーが承認されたデータのみをアクセス・返却できるように制限します。これにより、機密情報の漏洩を防ぎ、データセキュリティを確保します。

MCP(AIモデル)と外部システム間のデータ交換のセキュリティを確保する方法

AIモデルと外部システムを接続するMCPサーバーを実装する際、MCP実装における2つの重要なセキュリティ課題があります:

  • 認証: 伝統的なアプリケーションとは異なり、MCP環境では、ユーザーが伝統的なログインフロー(ユーザー名/パスワード、メール/認証コードなど)で外部システムにアクセスすることはできません。
  • MCPサーバー要求に対するアクセス制御: AIツールを通じてシステムにアクセスするユーザーは、直接的にあなたのシステムを使用する可能性のある同じ個人です。MCPサーバーはAIツールを通じてユーザーが操作する際の代理として動作します。MCPサーバーに適合するためにアクセス制御メカニズム全体を再設計することは、大幅な労力とコストがかかります。

これらの課題への主要な解決策は、Personal Access Tokens (PATs) を実装することです。PATsは、ユーザーが資格情報を共有したり、対話的なサインインを要求したりせずにアクセス権を与える安全な方法を提供します。

このワークフローは次のように機能します:

このアプローチにより、既存のサービスはその認証メカニズムを維持しながら、安全にMCP統合を可能にします。

ブログ記事:ビジネスを強化:アクセス制御を持つAIツールを既存のサービスに接続 には、Logtoの Personal Access Tokens (PAT)ロールベースのアクセス制御 (RBAC) を組み合わせて、MCPがバックエンドサービスからアクセス可能なリソースを制限する方法の完全なソースコード例 が記載されています。

まとめ

MCP(モデルコンテキストプロトコル)は、大規模言語モデルと特定のビジネスの組み合わせに画期的な変化をもたらします。これは、大規模言語モデルの知識の限界、専門領域知識の欠如、外部データへのアクセスに関する非統一基準の問題を解決します。

MCPを使用して独自のサービスを接続することで、ビジネスに新たな可能性が生まれます。MCPはAIとビジネス価値をつなぐ橋渡し役です。あなたの会社の内部知識を真に理解するAIアシスタントを作成したり、最新データにアクセスするインテリジェントツールを開発したり、業界特有のニーズに対応するプロフェッショナルなアプリケーションを構築することができます。

3
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?