llamacloud-mcpを利用して、LlamaCloudをMCP(Model Context Protocol)サーバーとして構築し、Claude Desktopなどのクライアントからアクセスできる環境を整える手順を、具体例を交えて説明します。
ステップ1: LlamaCloudのインデックスを作成する
1. LlamaCloudアカウントの作成
• LlamaCloudにアクセスし、アカウントを作成します。 
2. 新しいインデックスの作成
• ダッシュボードから「Create Index」を選択し、データソースを指定して新しいインデックスを作成します。例えば、Google Driveをデータソースとして選択し、特定のドキュメントをインデックス化することが可能です。
3. APIキーの取得
• LlamaCloudのUIからAPIキーを取得します。これは後の設定で必要となります。
ステップ2: MCPサーバーの設定
1. リポジトリのクローン
• ターミナルで以下のコマンドを実行し、リポジトリをクローンします。
git clone https://github.com/run-llama/llamacloud-mcp.git
2. 環境変数の設定
• llamacloud-mcpディレクトリ内に.envファイルを作成し、以下の環境変数を設定します。
LLAMA_CLOUD_API_KEY=あなたのLlamaCloud APIキー
OPENAI_API_KEY=あなたのOpenAI APIキー
※OpenAI APIキーは、RAG(Retrieval-Augmented Generation)クエリを実行するために使用されます。他のLLM(大規模言語モデル)を使用する場合は、適宜設定を変更してください。
3. 依存関係のインストール
• poetryを使用して依存関係をインストールします。以下のコマンドを実行してください。
poetry install
4. MCPサーバーの起動
• 以下のコマンドでMCPサーバーを起動します。
poetry run python mcp-server.py
これにより、ローカル環境でMCPサーバーが起動し、クライアントからの接続を待ち受ける状態になります。
ステップ3: Claude Desktopの設定
1. Claude Desktopのインストール
• Claude Desktopの公式サイトからアプリケーションをダウンロードし、インストールします。 
2. 設定ファイルの編集
• Claude Desktopを起動し、メニューバーからClaude -> Settings -> Developer -> Edit Configを選択します。
• 設定ファイルがエディタで開かれるので、以下のようにMCPサーバーの情報を追加します。
{
"mcpServers": {
"llama_index_docs_server": {
"command": "poetry",
"args": [
"--directory",
"/path/to/llamacloud-mcp",
"run",
"python",
"/path/to/llamacloud-mcp/mcp-server.py"
]
}
}
}
※/path/to/llamacloud-mcpは、実際のllamacloud-mcpディレクトリのパスに置き換えてください。
3. Claude Desktopの再起動
• 設定を保存し、Claude Desktopを再起動します。これで、Claude DesktopからMCPサーバーに接続できるようになります。
ステップ4: Claude Desktopからのクエリ実行
• Claude Desktopのチャットウィンドウに質問を入力し、先ほど設定したMCPサーバーを選択してクエリを実行します。例えば、「LlamaIndexでエージェントをインスタンス化する方法は?」と入力すると、MCPサーバーがLlamaCloudのインデックスを検索し、関連する情報を提供します。
以上の手順で、LlamaCloudをMCPサーバーとして構築し、Claude Desktopからのクエリに応答する環境が整います。