はじめに
IBM watsonx Orchestrate では、標準でサポートされている watsonx.ai 上のllama等のモデルに加えて、OpenAI、Anthropic、Azure OpenAI、Google、AWS Bedrock などのサードパーティLLMプロバイダーにも接続して利用できます。
本記事では、OpenAI の GPT モデルを例に、サードパーティLLMプロバイダーのモデルを watsonx Orchestrate のエージェントで利用する手順を説明します。
主な流れ
- 環境の有効化
- 外部LLMプロバイダーへの接続設定
- モデル定義の作成とインポート
- エージェントでの利用
- 動作確認
参考資料
前提条件
- IBM watsonx Orchestrate の環境が利用可能であること
-
orchestrate
CLIツールがインストールされていること - OpenAI のAPIキーを取得済みであること
手順
1. 環境の有効化
まず、watsonx Orchestrate の環境を有効化します:
orchestrate env activate <環境名>
Please enter WXO API key:
[INFO] - Environment '<環境名>' is now active
2. 接続の設定
OpenAI への接続を追加し、設定を行います:
# 接続を追加
orchestrate connections add -a openai
# 接続を設定
orchestrate connections configure -a openai --env draft -k key_value -t team
# 認証情報を設定
orchestrate connections set-credentials -a openai --env draft -e "api_key=<your_openai_api_key>"
3. 接続の確認
設定した接続が正しく構成されているか確認します:
orchestrate connections list
出力例:
Draft
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━┳━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ App ID ┃ Auth Type ┃ Type ┃ Credentials Set/ Connected ┃
┡━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━╇━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━━━━━┩
│ openai │ key_value_creds │ team │ ✅ │
└───────────────────────────────────────────┴─────────────────┴──────┴────────────────────────────┘
4. モデル定義の作成
使用したいOpenAIモデルの設定ファイルを作成します。例として openai_model.yaml
を作成:
spec_version: v1
kind: model
name: openai/gpt-4.1-mini
display_name: OpenAI GPT 4.1 Mini
model_type: chat
5. モデルのインポート
定義したモデルをwatsonx Orchestrateにインポートします:
orchestrate models import -f openai_model.yaml --app-id openai
出力例:
[INFO] - Be sure to include the following required fields for provider 'openai' in the connection 'openai':
- api_key
[INFO] - Successfully added the model 'virtual-model/openai/gpt-4.1-mini'
6. モデルの確認
インポートされたモデルが利用可能か確認します:
orchestrate models list
出力例:
Available Models
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ Model ┃ Description ┃
┡━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┩
│ ✨️ virtual-model/openai/gpt-4.1-mini │ openai/gpt-4.1-mini │
├───────────────────────────────────────────────────┼────────────────────────────────────────────────────┤
│ ★ watsonx/meta-llama/llama-3-2-90b-vision-instruct│ Llama-3-2-90b-vision-instruct... │
└───────────────────────────────────────────────────┴────────────────────────────────────────────────────┘
7. エージェントでの利用
インポートしたモデルをエージェント設定で指定することで利用できます。エージェント定義ファイル(例:agent.yaml
)でモデルを指定:
orchestrate agents import -f agent.yaml
出力例:
[INFO] - Agent 'openai_agent' imported successfully
エージェント一覧の確認
orchestrate agents list
出力例:
Available Agents
┏━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ Agent ┃
┡━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┩
│ openai_agent │
└─────────────────────────────────────────────────────────────────────────────┘
8. 動作確認
エージェントがOpenAIモデルを正しく利用しているか確認します。
Agent設定のモデルにOpenAI GPT 4.1 Miniが登録されていることを確認できます。
Agent analytics でも呼び出しモデルを確認できました。
まとめ
この手順により、IBM watsonx Orchestrate でサードパーティのLLMを利用できます。主な流れは以下の通りです:
- 環境の有効化
- 外部LLMプロバイダーへの接続設定
- モデル定義の作成とインポート
- エージェントでの利用
同様の手順で、Anthropic Claude、Azure OpenAI、Google Gemini、AWS Bedrock なども利用可能です。
既存環境や、Agentのタスクに応じて切り替えて使うのが良いと思います。
各プロバイダーごとに認証方法やモデル名は異なるため、公式ドキュメントを参照してご利用ください。
参考資料