立ち位置整理記事を書いたAzure AI Foundry周りです。
Clineから使うときに設定手こずったのでメモです。
API Providerの設定は今のところ共通
Azure OpenAIやAI FoundryのAPIはOpenAIの基本的にAPI互換になっているので、OpenAI Compatibleを指定します。
Clineの設定とAzure AI Foundryの相性が悪い? ハマったところ
Azure OpenAIだと管理画面のターゲットURLは
https://hogehoge-japan-east.openai.azure.com/openai/deployments/gpt-4.1/chat/completions?api-version=2025-01-01-preview
のようなURLです。
罠っぽいところですが、ClineでBaseURLを入れるところがありますが
https://hogehoge-japan-east.openai.azure.com/やhttps://hogehoge-japan-east.openai.azure.com/openai/deployments
だとAPIエラーになります。
結論: /openai/deployments/モデル名 まで入れる
GPT-4.1ならhttps://hogehoge-japan-east.openai.azure.com/openai/deployments/gpt-4.1などモデル名まで入れ、 逆にModel IDのフォームは空でOKです。
Azure OpenAI版
ということでGPT-4.1の場合
- API Provider:
OpenAI Compatible - BASE URL:
https://hogehoge-japan-east.openai.azure.com/openai/deployments/gpt-4.1 - APIキー: そのままAPIキーをコピペ
- Model ID: 空欄
- Set Azure API Version:
2024-12-01-previewなど
Azure AI Foundry版
Azure AI FoundryでGPT-4.1-miniを利用する場合も基本は一緒です。
/モデル名までを入れてModel IDは空欄です。
- API Provider:
OpenAI Compatible - BASE URL:
https://hogehoge-resource.cognitiveservices.azure.com/openai/deployments/gpt-4.1-mini - APIキー: そのままAPIキーをコピペ
- Model ID: 空欄
- Set Azure API Version:
2024-12-01-previewなど
まとめ
ベースURLが/モデル名までを入れることでModel指定をするという特殊なやり方なので注意しましょう。
これどこにも書いてない気がする...... でも一回分かれば問題ないですね。
Let's バイブコーディング




