0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LLMは最小知能レベルの向上を続け、MCPは最大創造性レベルの向上を続ける

Last updated at Posted at 2025-04-19

本記事はこちらのブログを参考にしています。
翻訳にはアリババクラウドのModelStudio(Qwen)を使用しております。

著者: Wang Cheng

はじめに

LLMは脳であり、MCPは手足です。LLMは最低限の知能レベルを継続的に引き上げる一方で、MCPは創造性の上限を継続的に向上させます。すべてのアプリケーションとソフトウェアはAIによって変革され、新しいパラダイムでは、すべてのアプリケーションとソフトウェアがMCPによって変革されます。過去1〜2年間、業界関係者はモデルの最適化に多大なリソースを投入してきました。今後数年間は、皆がMCPを中心に様々なインテリジェントエージェントの作成に注力します。これは、大規模モデルベンダーの支配領域外にある広大な領域を代表しています。AIは短期的にはROIの課題に直面していますが、ほとんど誰もその未来を疑わず、この競争に乗り遅れたくないと思っています。最近、我々はMCPプロトコルをサポートする関連機能をオープンソース化またはリリースし、開発者がMCPを採用する際のエンジニアリングコストを削減しました。詳細は以下のリンクをご覧ください:

Higress Open Source Remote MCP Server Hosting Solution and Upcoming MCP Market

MCPサーバー向けの観測可能なサービスがまもなくリリース予定です。

目次

  1. なぜMCPは人気なのか?
  2. MCPとFunction Callingの違いは何ですか?
  3. MCPは供給側を変えるが、変革は消費側にある
  4. MCPは大規模モデルの収益化を加速したか?
  5. MCPエコシステムの繁栄は何かに依存しているのか?

この記事を開いた読者たちは共通の観察を共有しています:2月中旬以来、MCPが人気になっているというものです。オープンソースプロジェクトの人気を反映する2つの主要な指標を見てみましょう:GitHub Starsと検索インデックスです。Starsは2月以降、加速的に増加しています:
1

WeChat Indexは2月からトラフィックが急増しています。コミュニティでの議論によると、4月には国内でMCPミドルウェアプロバイダー(Server、Client、Serverホスティング、Registry、Marketplaceなど)が急増し、それぞれの専門分野に拡大すると予想されています。この記事の目的は、混乱しやすい概念を明確にし、収益化の機会を共有し、MCPに関する我々の計画と進捗について議論することです。

1. なぜMCPは人気なのか?

MCPは、大規模モデルとサードパーティのデータ、API、およびシステム間の相互作用において、断片化された統合アプローチを単一の標準プロトコルに置き換え、N x Nから「One for All」に進化させ、AIシステムが必要なデータをよりシンプルかつ信頼性高く取得できるようにします。[1]

MCPは昨年11月にリリースされ、すぐに最初の市場の注目を集めました。今年の2月までに、Cursur、Winsurf、ClineがMCPを統合し始めました。数千に及ぶ以前の統合呼び出しとは異なり、AIプログラミングにおけるMCPの導入は、大規模モデルの生態系効果に対する明確な号令と考えられ、多くの開発者がAIプログラミングツール側で呼び出し元に惹きつけられ、既存の膨大なアプリケーションやシステムを目覚めさせています。産業チェーンの視点からは、これによりAIアプリケーションと多数のクラシックオンラインアプリケーションの孤立と断片化が解消されるだけでなく、AIプログラミングツールの使用深度が大幅に向上し、ユーザー基盤が拡大します。また、AIアプリケーションに実質的な収益化の機会を提供し、クラシックオンラインアプリケーションにもさらなるトラフィックをもたらします。さらに、専門ソフトウェアで自然言語を使用する市場を刺激する可能性もあります。例えば、Blender MCPはAIをBlenderに接続し、ユーザーがシンプルなテキストプロンプトで3Dモデルを作成、修正、強化できるようにします。このエコシステムでは、MCP、AIアプリケーション、AIプログラミングツール、クラシックオンラインアプリケーションのすべてが恩恵を受け、最初に統合したものが最も大きな利益を得ます。OpenAIがMCPをサポートすることを発表したことで、AIネイティブアプリケーションのためのコアインフラとしての地位が加速されます。P.S. 国内の大型モデルはまだモデルコンテキストプロトコルに対応していないため、MCPが最終的に中国で事実上の標準になるかどうかは不透明です。

キープロダクティビティプログラマの視点から見ると、プログラマはSupabaseに切り替えてデータベースの状態を確認する必要がなく、IDEからPostgres MCPサーバーを使用して読み取り専用SQLコマンドを実行したり、Redis MCPサーバーを使用してRedisのキー値ストレージと直接対話できます。コードを反復処理する際には、Browsertools MCPを使用してコーディングアシスタントがライブ環境にアクセスし、フィードバックやデバッグを行うことも可能です。これは新しいことではありません。クラウド製品を使用する場合、プログラマは複数のクラウド製品コンソールを行き来するよりも、APIを介してクラウド製品の機能を呼び出すことを好みます。プログラマはしばしば新技術の早期採用者です。MCPが成熟するにつれて、一般消費者も自然言語を利用してMCP産業チェーンの繁栄を促進するでしょう。

2. MCPとFunction Callingの違いは何ですか?

まず、MCPとFunction Callingはどちらも大規模モデルが外部データ、アプリケーション、およびシステムを呼び出すための技術的実装です。MCPはAnthropicによって2024年11月末にリリースされ、一方Function CallingはOpenAIによって2023年6月に初めて導入されました(外部関数を仲介役として作成し、大規模モデルからのリクエストを渡しながら外部ツールを呼び出す方法で、ほとんどの大規模モデルベンダーが採用しています)。しかし、これらには位置付け、開発コストなどの面で大きな違いがあります。

異なる位置づけ:

MCPは一般的なプロトコル層の標準であり、AI領域におけるUSB-Cインターフェースのようなもので、LLMと外部ツール/データソース間の通信フォーマットを定義し、特定のモデルやベンダーに依存せず、複雑な関数呼び出しをクライアント-サーバーアーキテクチャに抽象化します。Function Callingは大規模モデルベンダーが提供する独自の機能であり、ベンダーによって定義されています。異なる大規模モデルベンダーのインターフェース定義や開発ドキュメントには違いがあり、モデル自体が関数呼び出しを直接生成し、外部APIをトリガーすることができ、モデル自身の文脈理解と構造化された出力能力に依存します。

違う開発コスト:

Function Callingの場合、OpenAIを例に取ると、外部関数ごとにJSON Schema形式の関数説明を記述し、Function Callingの応答精度を高めるためにプロンプトテンプレートを慎重に設計する必要があります。数十の外部システムが関与する場合、設計コストは莫大になり、製品化コストも非常に高くなります。MCPは大規模モデルランタイム環境をMCPクライアントと呼び、外部関数ランタイム環境をMCPサーバーと呼び、両方の操作仕様を標準化し、あらかじめ決められたプロンプトテンプレートに従って通信を要求します。これにより、MCPサーバーを通じてグローバル開発者の協力が促進され、グローバルな開発成果の再利用が可能になります。

違うインタラクション方法:

MCPは標準化されたクライアント-サーバーアーキテクチャを通じて双方向通信を

AIエージェントとMCPの重要性

そのため、AIエージェントはより効率的な開発およびエンジニアリングパラダイムに対して強い需要を持っています。古典的なインターネットアプリケーションとは異なり、AIエージェントの製品化とエンジニアリングはかなり複雑です。EC(電子商取引)アプリケーションは、ユーザーが家を出ることなく買い物をするためのニーズを満たし、チャットアプリケーションは、ユーザーが家を出ることなく交流するためのニーズを満たします。これらは物理的代替形態です。一方で、AIエージェントは精神的・認知的努力の代替を表しており、ユーザーが基本的な生存から高度な創造までの一連の活動を完了する手助けをします。外部アプリケーションを呼び出す際にFunction Callingに頼るだけでは、明らかに効率的な開発パラダイムではありません。MCP(Model Communication Protocol)のみが開発者に次世代の「Manus」を簡単に作成することを可能にします。これはインターネット世界におけるHTTPプロトコルに似ており、すべてのクライアントやウェブサイトが一つの標準に基づいて通信できるようにし、これによりグローバルな開発者協力を促進し、AGI(人工汎用知能)の到来を加速させます。

4. MCPは大規模モデルの収益化を加速しましたか?

私たちの観察によると、確かにその通りです。Firecrawlを例に挙げましょう。このオープンソースプロジェクトは以下を提供します:

完全なデータスクレイピング:

サイトマップに頼らずに、ウェブサイト全体のアクセス可能なサブページを自動的にクロールします。

データクリーニングとフォーマット:

スクレイプされたウェブコンテンツをクリーンなMarkdownまたは構造化データに自動的に変換し、広告やナビゲーションバーなどの関係のない情報を削除し、ページノイズを排除します。

処理なしでのデータ取得:

モデルとのシームレスなインターフェースを実現し、LLM(大規模言語モデル)対応形式を直接出力でき、さまざまなAIプログラミングフレームワークに統合してデータ前処理ワークフローを加速します。

MCPをサポートする前でも、Firecrawlには完全自動化されたウェブクロール機能がありましたが、従来の技術に依存しており、REST APIやSDKを介してユーザーが手動でFirecrawlサービスを呼び出す必要がありました。今年1月、FirecrawlはClineプラットフォームとの統合を通じて正式にMCPプロトコルを導入し、開発者がMCPサーバー経由でFirecrawlのクロール能力を呼び出し、AIモデルが直接ウェブスクレイピングを制御する自動化プロセスを実現しました。さらに重要なのは、ユーザーがプロトコルバインディングによって拡張性に影響を受けることを心配する必要がないことです。豊富な大規模モデル能力を実現するためには、Firecrawlのような複数の中間層プロバイダーへの依存が不可欠です。したがって、MCPは大規模モデルの中間層供給業者のネットワーク効果を開拓し、これらのプレイヤーの収益化能力を加速させています。

a16z InfraチームはMCPマーケットマップを作成しました。[2]

2

このマップは現在のMCPエコシステムで最も活発な領域をカバーしていますが、まだ多くの空白があります。それでも国内での革新にインスピレーションを与えるでしょう。

MCPの採用率が継続的に上昇するにつれ、インフラストラクチャとツールはMCPエコシステムのスケーラビリティ、信頼性、およびアクセス可能性において重要な役割を果たします。これにより、従来のインターネット産業チェーンとはまったく異なる潜在的な結果が生まれる可能性があります。B2B分野での機会がB2Cよりも豊富になるでしょう。

MCPクライアント:

呼び出し元として、MCPエコシステムとのユーザーインターフェースのエントリーポイントであり、端末機能の実現に焦点を当てています。例えば、チャットアプリケーション(Claudeなど)は自然言語インタラクションサービスを提供し、ユーザーが会話を通じてAI機能を呼び出すことができます。また、コーディングツールタイプ(Cline、Cursorなど)はIDE内で外部アプリケーションやシステムの機能を呼び出すAIプログラミングシナリオに対応しています。タスク自動化タイプは、データ処理やワークフロースケジューリングなど、反復的なタスクの実行を自動化し、効率を向上させます。「Manus」は典型的なMCPクライアントです。

MCPサーバー:

呼び出し先として、バックエンドサービスを提供し、さまざまなコア機能モジュールを含みます。例えば、データベースタイプ(ClickHouse、Supabaseなど)はデータの保存、クエリ、管理を担当し、デザインタイプ(Figma、Blenderなど)はデザイン作成やファイルの共同作業をサポートします。生産性ツールタイプ(Notion、Obsidianなど)はメモ管理や知識整理などの共同作業サービスを提供し、支払いタイプ(Stripeなど)はオンライン決済取引を処理し、商業シナリオでの資金フローをサポートします。

MCPマーケットプレイス:

エコシステムのハブとして機能し、MCP関連ツールを集約・配布し、アプリストアのような役割を果たします。一方で、開発者はここでMCPクライアントやサーバーツールを公開できます。他方で、ユーザーはさまざまなMCPツール(MCP.soやGlamaなど)を簡単に見つけ利用でき、エコシステム内のリソース循環と共有を促進します。

サーバー生成&キュレーション:

MCPサーバーの開発と保守に焦点を当て、ツールやフレームワーク(Mintlify、Stainlessなど)を提供してサーバー開発を支援し、セットアッププロセスを簡素化します。サーバー設定と機能のイテレーションを最適化し、異なるビジネスシナリオの要件を満たすために安定したサーバーパフォーマンスを確保します。

接続管理:

MCPエコシステム内のさまざまなコンポーネント間の相互作用を調整します。クライアントとサーバー、サーバー間の接続を管理し、効率的なデータ伝送を確保します。接続の安定性を最適化し、ネットワークプロトコルの適応、リクエストのルーティングなどを処理し、エコシステム内でのスムーズな相互作用を保証します。

サーバーホスティング:

MCPサーバーの運用環境を提供します。クラウドコンピューティングや他のインフラストラクチャ(Cloudflare、Smitheryなど)を利用してサーバーコードとデータをホストし、サーバーの運用・保守、スケーリング、およびセキュリティを担当し、継続的かつ安定した稼働を確保します。Higressとそのクラウド製品APIゲートウェイはTongyi Lingmaと協力し、SSE + Tool + Redisの技術ソリューションを採用し、Higress MCP Server Hosting[3]を立ち上げました。これにより、2つの機能が提供されます。第一に、Higressはいくつかの主流の外部アプリケーションとインターフェースする簡単なIOツール機能を提供し、ユーザーは複雑なIOツール機能を独自に実装することもできます。第二に、ゲートウェイとして、MCPサーバーへのアクセスに関する身元確認と承認を管理します。さらに、NacosはMCPレジストリ機能をリリース予定で、MCPサーバーの動的検出と管理、およびMCPプロトコルを管理するための動的プロンプトの配布を含み、非MCPサービスをMCPサービスに変換するのに役立ちます。Nacos + Higressの組み合わせとApache

サービス品質の監視

サービス品質の監視:MCPエコシステム内のサービスの運用状態と可用性をリアルタイムで監視し、ユーザーエクスペリエンスに影響を与える問題(サービス停止や過度な遅延など)を迅速に検出します。また、対応するアラートメカニズムをトリガーして、保守担当者が迅速に対応できるようにすることで、サービスの安定性と信頼性を確保します。

標準化されたマップサービス能力プラットフォームとして、AmapはMCPサーバーを先駆けてリリースし、企業向けインテリジェントエージェントアプリケーションの開発を支援するための12のコア機能を提供しています。われわれは、国内で急速に多数のMCPサーバーやMCPミドルウェアが登場し、AIエージェントの製品化とエンジニアリングを加速させると予想しています。
[1] https://mp.weixin.qq.com/s/zYgQEpdUC5C6WSpMXY8cxw
[2] https://a16z.com/a-deep-dive-into-mcp-and-the-future-of-ai-tooling/
[3] https://github.com/alibaba/higress/tree/main/plugins/wasm-go/mcp-servers
この翻訳では、原文の内容を忠実に日本語に変換し、適切なMarkdown形式で表現しました。また、リンクや技術用語についてはそのまま保持しています。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?