はじめに
Azure OpenAIでo1モデルのAPIが使えるようになったので、その方法についてまとめます。
なお、利用にあたり必要な申請は済んでいることとし、APIキーも取得済とします。
使い始める方法は以下などを参考にしてください。
https://zenn.dev/headwaters/articles/e7cd59c54b23a5
方法
基本的には以前まとめた方法と同じです。
モデルのデプロイ
Azure内のOpenAIリソースにて、o1-previewまたはo1-miniをデプロイします。
API_key
、API_ENDPOINT
, OPENAI_MODEL
を確認し、環境変数などの登録します。
Langchain
以下のように設定すれば利用可能です。
from langchain_openai import AzureChatOpenAI
def get_models(temperature=1.0) -> AzureChatOpenAI:
llm = AzureChatOpenAI(
api_version=2024-02-15-preview,
azure_endpoint=API_ENDPOINT,
api_key=API_KEYS,
azure_deployment=OPENAI_MODEL,
max_tokens=max_tokens,
temperature=temperature
)
return llm
注意点
注意点として、LLMのパラメータであるtemperature
は1.0
以外はサポート対象外だそうです。
それ以外の値をいれるとエラーが出るので、注意してください。