こちらを見たら、MLflow 2.22.0で、OpenAI Responses APIのトレーシングがサポートされていました。
以前書いたこちらを改めてトレーシングしてみます。
%pip install -U openai
%pip install mlflow==2.22.0rc0
%restart_python
import os
os.environ['OPENAI_API_KEY'] = dbutils.secrets.get(scope="demo-token-takaaki.yayoi", key="openai_api_key")
基本的な使用法
import openai
import mlflow
# Enable auto-tracing for OpenAI
mlflow.openai.autolog()
openai_client = openai.OpenAI()
response = openai_client.responses.create(
model="gpt-4o-mini", input="フランスの首都は"
)
トレースできました。
画像の分析
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-4o-mini",
input=[
{"role": "user", "content": "この画像に写っているチームは何ですか?"},
{
"role": "user",
"content": [
{
"type": "input_image",
"image_url": "https://upload.wikimedia.org/wikipedia/commons/3/3b/LeBron_James_Layup_%28Cleveland_vs_Brooklyn_2018%29.jpg"
}
]
}
]
)
print(response.output_text)
Web検索
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-4o-mini",
tools=[{"type": "web_search_preview"}],
input="今日のポジティブなニュースストーリーはなんですか?"
)
print(response.output_text)
会話の履歴
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-4o-mini",
input="こんにちは。弥生 隆明と言います。"
)
print(response.output_text)
response = client.responses.create(
model="gpt-4o-mini",
input="私の名前は",
previous_response_id=response.id,
)
print(response.output_text)