0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LibreChatでAzure AI Foundryでデプロイしたモデルを使う

Last updated at Posted at 2025-03-09

Azure AI Foundryでデプロイしたモデルを、LibreChatで使う方法です。
(プレビュー機能を使いますので、実環境には向かないと思います)

環境

  • LibreChat v0.7.7

Azure AI Foundryでモデルデプロイ

以下のような感じでデプロイさせました。
別プロジェクトでAOAIも表示されていますが、ここでは使用しません。
(ちなみに、AAIFでデプロイしたAOAIモデルもここで紹介する方法で使用可能です)

スクリーンショット 2025-03-09 115747.png

設定してみる

以下例では、Phiをcustom endpointとして追加しています。

librechat.yaml
endpoints:
  custom:
    - name: "Microsoft"
      baseURL: "${AZUREAIFOUNDRY_URL}"
      apiKey: "${AZUREAIFOUNDRY_KEY}"
      models:
        default: [
          # 以下にAAIFでデプロイしたモデルを入力する
          # 複数入力も可
          "Phi-4-mini-instruct",
          "Phi-4",
          "Phi-4-multimodal-instruct"
          ]
        fetch: false
      serverless: true
      titleConvo: true
      titleModel: "Phi-4-mini-instruct" 
      modelDisplayLabel: "Phi"
      headers:
        # ヘッダつけておかないと、エラーになります
        api-key: "${AZUREAIFOUNDRY_KEY}"
        Content-Type: "application/json"

.envに以下追加します。

.env
AZUREAIFOUNDRY_URL=(Azure AIモデル推論エンドポイント)
AZUREAIFOUNDRY_KEY=(APIキー)

スクリーンショット 2025-03-09 114558.png

できました。

スクリーンショット 2025-03-09 135309.png

きちんと応答してくれます。

image.png

最後に

デプロイ管理画面で、「エンドポイントの取得」から設定することもできますが、これだとモデル毎にエージェントを選択することになるので、あまりキレイではありません。
AAIFはAAIFでまとめなければいけないということもなく、modelsの内容を変えるだけで会社ごとにカテゴライズできます。

この記事が何かのお役に立てれば幸いです。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?