50
20

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

TRIAL&RetailAIAdvent Calendar 2024

Day 13

PydanticのLLMエージェントフレームワーク「PydanticAI」を使ってみた

Last updated at Posted at 2024-12-12

はじめに

TRIAL&RetailAI Advent Calendar 2024 の 13 日目の記事です。

昨日は @UtaMori さんの『フルスタック Next.js の新機軸!"Payload"で管理画面&WebAPI を自動生成!』という記事でした。CMS として高機能な上に、システム開発に必要な全般の機能が提供されており、使いこなすことで開発効率の面で大きなメリットになりそうですね。

本記事では、新しい AI エージェントフレームワークである「Pydantic AI」について紹介していきます。こちらは Python ユーザーなら誰しもお世話になっているであろうデータバリデーションフレームワークである Pydantic の開発チームから公開されています。

ということで、さっそく公式ドキュメントを見ながら、どのようなものか試してみました。

PydanticAI

PydanticAI は FastAPI のように、生成 AI を用いた本番環境のアプリケーション開発をより簡単に構築できるよう設計されたフレームワークというコンセプトのようです。

公式ドキュメント

GitHub リポジトリ

公式ドキュメントによると、PydanticAI には以下のような特徴があるようです。

  • Pydantic チームによって開発(OpenAI SDK、Anthropic SDK、LangChain、LlamaIndex、AutoGPT、Transformers、CrewAI、Instructor など多くのプロジェクトのバリデーション層を担当)
  • モデルに依存しない設計 — 現在 OpenAI、Gemini、Groq をサポート。Anthropic も近日対応予定。また、他のモデルのサポートも簡単に実装可能なインターフェースを提供
  • 型安全性を重視した設計
  • 制御フローとエージェントの構成は通常の Python で行われ、他の(AI 以外の)プロジェクトと同じ Python の開発ベストプラクティスを活用可能
  • Pydantic による構造化レスポンスのバリデーション
  • Pydantic による構造化レスポンスのバリデーションを含むストリーミングレスポンス対応
  • テストと評価駆動の反復開発に有用な、革新的で型安全な依存性注入システム
  • LLM を活用したアプリケーションのデバッグとパフォーマンス・動作の監視のための Logfire 統合

執筆時点(2024 年 12 月)で、PydanticAI は Beta 版という位置づけなので、API は変更される可能性があるとのことです。

Installation

今回は uv で環境構築してみます。uv はいいぞ!

$ uv add pydantic-ai

執筆時点で最新のバージョンは v0.0.12 でした。

# Display the project's dependency tree
$ uv tree
(省略)
├── pydantic-ai v0.0.12
│   └── pydantic-ai-slim[groq, openai, vertexai] v0.0.12
│       ├── eval-type-backport v0.2.0
│       ├── griffe v1.5.1
│       │   └── colorama v0.4.6
│       ├── httpx v0.28.1 (*)
│       ├── logfire-api v2.6.2
│       ├── pydantic v2.10.3 (*)
│       ├── groq v0.13.0 (extra: groq)
│       │   ├── anyio v4.7.0 (*)
│       │   ├── distro v1.9.0
│       │   ├── httpx v0.28.1 (*)
│       │   ├── pydantic v2.10.3 (*)
│       │   ├── sniffio v1.3.1
│       │   └── typing-extensions v4.12.2
│       ├── openai v1.57.0 (extra: openai) (*)
│       ├── google-auth v2.36.0 (extra: vertexai)
│       │   ├── cachetools v5.5.0
│       │   ├── pyasn1-modules v0.4.1
│       │   │   └── pyasn1 v0.6.1
│       │   └── rsa v4.9
│       │       └── pyasn1 v0.6.1
│       └── requests v2.32.3 (extra: vertexai) (*)
(省略)

デフォルトでは OpenAI と Gemini(VertexAI)、Groq のライブラリがインストールされます。個別のモデルのみを利用する場合は、 pydantic-ai-slim パッケージでモデル名を指定してインストールすれば良いとのことです。

# Using just OpenAI model
$ uv add 'pydantic-ai-slim[openai]'

Agents

PydanticAI における主要なインターフェースが Agent です。Agent は単一のアプリケーションやコンポーネントを制御する役割を果たします。さらに複数の Agent を組み合わせることで、より高度なワークフローを構築することも可能なようです。

また Agent の設計思想は FastAPI の approuter のように一度インスタンス化されたものをアプリケーション全体で再利用することを想定しているとのことです。

まずは、Agent クラスでユーザーの問いかけに対して回答する単純なエージェントを構築してみます。

hello_world.py
import asyncio

from dotenv import load_dotenv
from pydantic_ai import Agent

# 補足: .envファイルから`OPENAI_API_KEY`を読み込み、環境変数にセット
load_dotenv()


async def main() -> None:
    """Hello world for pydantic ai"""
    agent = Agent(
        "openai:gpt-4o-mini",
        system_prompt=("すべてツンデレ口調で回答してください。"),
    )

    result = await agent.run("東ティモールの首都は?")
    print(result.data)


if __name__ == "__main__":
    asyncio.run(main())
実行結果
べ、別にあなたのために教えてあげるんじゃないんだからね!東ティモールの首都はディリよ。勘違いしないでよね!

モデル(ここでは gpt-4o-mini)とシステムプロンプトを定義した Agent を作成し、run でエージェントを実行します。なおエージェントの実行メソッドは以下の 3 タイプがあります。

  • agent.run() : 非同期で実行
  • agent.run_sync() : 同期的に実行
  • agent.run_stream() : ストリーミングで実行

他のフレームワークと比較すると、よりシンプルに記述できることが特徴のようです。同じ処理を OpenAI の Python ライブラリ、LangChain と比較するとその差がわかりやすいかと思います。

【参考】OpenAI Python Client によるサンプルコード
agent_openai_client.py
"""Hello world for openai client"""

import asyncio

import openai
from dotenv import load_dotenv

load_dotenv()

async def main():
"""Hello world by openai client"""
client = openai.AsyncOpenAI()

    result = await client.chat.completions.create(
        model="gpt-4o-mini",
        messages=[
            {"role": "system", "content": "すべてツンデレ口調で回答してください。"},
            {"role": "user", "content": "東ティモールの首都は?"},
        ],
    )
    print(result.choices[0].message.content)

if __name__ == "__main__":
    asyncio.run(main())

【参考】LangChain によるサンプルコード
agent_langchain.py
"""Hello world for langchain"""

import asyncio

from dotenv import load_dotenv
from langchain_core.messages import SystemMessage
from langchain_core.prompts import (
    ChatPromptTemplate,
    HumanMessagePromptTemplate,
)
from langchain_openai import ChatOpenAI

load_dotenv()


async def main() -> None:
    """Hello world by langchain"""
    llm = ChatOpenAI(model="gpt-4o-mini")
    chat_template = ChatPromptTemplate.from_messages(
        [
            SystemMessage(content="すべてツンデレ口調で回答してください。"),
            HumanMessagePromptTemplate.from_template("{question}"),
        ],
    )

    chain = chat_template | llm
    result = await chain.ainvoke({"question": "東ティモールの首都は?"})
    print(result.content)


if __name__ == "__main__":
    asyncio.run(main())

System Prompts

システムプロンプトは前述の通り、Agent クラスのコンストラクタ(system_prompt)で渡すこともできますが、デコレータ(@agent.system_prompt)を使うことで、より動的で柔軟なシステムプロンプトの設定が可能です。

system_prompt.py
import asyncio
from datetime import date

from pydantic_ai import Agent, RunContext

agent = Agent(
    "openai:gpt-4o-mini",
    deps_type=str,
    system_prompt="ユーザーの名前を使って返信してください。",
)


@agent.system_prompt
def add_the_users_name(ctx: RunContext[str]) -> str:
    """Return the user's name"""
    return f"ユーザーの名前は {ctx.deps} です。"


@agent.system_prompt
def add_the_date() -> str:
    """Return today's date"""
    return f"今日の日付は {date.today()} です。"


async def main() -> None:
    """Main function"""
    result = await agent.run("今日の日付は?", deps="田中")
    print(result.data)
    print(result.all_messages())


if __name__ == "__main__":
    asyncio.run(main())
実行結果
田中さん、今日は2024年12月8日です。何か特別な計画がありますか?

デコレータで追加したシステムプロンプトを反映した結果が得られました。なお agent に入力されたプロンプトは result.all_messages() で確認することができます。コード上でシステムプロンプトを定義した順にプロンプトが反映されています。

result.all_messages()の出力結果
[
    SystemPrompt(
        content="ユーザーの名前を使って返信してください。", role="system"
    ),
    SystemPrompt(content="ユーザーの名前は 田中 です。", role="system"),
    SystemPrompt(content="今日の日付は 2024-12-08 です。", role="system"),
    UserPrompt(
        content="今日の日付は?",
        timestamp=datetime.datetime(
            2024, 12, 8, 12, 59, 54, 869016, tzinfo=datetime.timezone.utc
        ),
        role="user",
    ),
    ModelTextResponse(
        content="田中さん、今日の日付は2024年12月8日です。何か特別な予定がありますか?",
        timestamp=datetime.datetime(
            2024, 12, 8, 12, 59, 55, tzinfo=datetime.timezone.utc
        ),
        role="model-text-response",
    ),
]

Function Tools

PydanticAI では、デコレータを使って Function Calling で使用するツールを定義することができます。デコレータはコンテキストの有無によって以下の 2 つを使い分ける必要があります。

  • @agent.tool:agent にコンテキスト(引数)を渡す関数に指定
  • @agent.tool_plain:agent にコンテキスト(引数)を渡さない関数に指定

以下のサンプルは、サイコロゲームを実行するエージェントの例です。コンテキストが不要なサイコロを降るツールは@agent.tool_plain、プレイヤーの名前を取得するツールはコンテキストが必要であるため@agent.toolで定義しています。

dice_game.py
"""Dice game"""

import asyncio
import random

from pydantic_ai import Agent, RunContext

agent = Agent(
    "openai:gpt-4o-mini",
    deps_type=str,
    system_prompt=(
        "あなたはサイコロゲームです。サイコロを振って、出た目がユーザーの予想と"
        "一致するかどうかを確認してください。一致した場合は、プレイヤーの名前を使って"
        "勝者であることを伝えてください。"
    ),
)


# コンテキストは不要なので`@agent.tool_plain`を使用
@agent.tool_plain
def roll_die() -> str:
    """Roll a six-sided die and return the result.

    Returns:
        str: The result of the die roll.
    """
    return str(random.randint(1, 6))


# コンテキストは必要なので`@agent.tool`を使用
@agent.tool
def get_player_name(ctx: RunContext[str]) -> str:
    """Get the player's name.

    Args:
        ctx (RunContext[str]): context of the run(user's name).

    Returns:
        str: The player's name.
    """
    return ctx.deps


async def main() -> None:
    dice_result = await agent.run("私の予想は「4」です", deps="たかし")
    print(dice_result.data)
    print(dice_result.all_messages())


if __name__ == "__main__":
    asyncio.run(main())


実行結果(負け)
サイコロを振った結果、出た目は「2」でした。あなたの予想「4」とは一致しませんでした。また次回チャレンジしてみてください!
実行結果(勝ち)
あなたの予想「4」と一致しました!おめでとうございます、たかしさんが勝者です!

こちらもresult.all_messages()で実行結果を確認してみると、Function Calling が実行されていることが確認できます。

result.all_messages()の出力結果
[
    SystemPrompt(
        content="あなたはサイコロゲームです。サイコロを振って、出た目がユーザーの予想と一致するかどうかを確認してください。一致した場合は、プレイヤーの名前を使って勝者であることを伝えてください。",
        role="system",
    ),
    UserPrompt(
        content="私の予想は「4」です",
        timestamp=datetime.datetime(
            2024, 12, 8, 13, 9, 30, 552546, tzinfo=datetime.timezone.utc
        ),
        role="user",
    ),
    ModelStructuredResponse(
        calls=[
            ToolCall(
                tool_name="roll_die",
                args=ArgsJson(args_json="{}"),
                tool_id="call_RqWpHqUKrvVqBjGDplXwHG67",
            ),
            ToolCall(
                tool_name="get_player_name",
                args=ArgsJson(args_json="{}"),
                tool_id="call_iER5bYY2gmcIBvtS8nQcYlmJ",
            ),
        ],
        timestamp=datetime.datetime(
            2024, 12, 8, 13, 9, 31, tzinfo=datetime.timezone.utc
        ),
        role="model-structured-response",
    ),
    ToolReturn(
        tool_name="roll_die",
        content="2",
        tool_id="call_RqWpHqUKrvVqBjGDplXwHG67",
        timestamp=datetime.datetime(
            2024, 12, 8, 13, 9, 31, 888425, tzinfo=datetime.timezone.utc
        ),
        role="tool-return",
    ),
    ToolReturn(
        tool_name="get_player_name",
        content="たかし",
        tool_id="call_iER5bYY2gmcIBvtS8nQcYlmJ",
        timestamp=datetime.datetime(
            2024, 12, 8, 13, 9, 31, 888433, tzinfo=datetime.timezone.utc
        ),
        role="tool-return",
    ),
    ModelTextResponse(
        content="サイコロを振った結果、出た目は「2」でした。あなたの予想「4」とは一致しませんでした。また次回チャレンジしてみてください!",
        timestamp=datetime.datetime(
            2024, 12, 8, 13, 9, 32, tzinfo=datetime.timezone.utc
        ),
        role="model-text-response",
    ),
]

ツールもシステムプロンプトと同様に、エージェントにツールをデコレータを使って定義することができるため、動的で柔軟なエージェントを作成することができます。

Type safe by design (型安全性)

PydanticAI は Mypy や Pyrigh などの型チェッカーと連携ができるように設計されています。agent で定義された依存関係(エージェントが受け取るデータ型: deps_type)や出力結果のデータ型(result_type)を型チェッカーでチェックすることができます。

型安全性の検証のため、型エラーが発生するコードで試してみます。
システムプロンプトとして定義した add_user_name() は、RunContext[str]str 型を引数として受け取るように定義されていますが、deps_typeにはUser型が定義され、型が一致していません。また agent の出力結果は result_typebool と定義されていますが、foobar() の引数の型(bytes)が一致していません。

types_mistake.py
from dataclasses import dataclass

from pydantic_ai import Agent, RunContext


@dataclass
class User:
    name: str

agent = Agent(
    "test",
    deps_type=User,     # 依存関係の型
    result_type=bool,   # 出力結果の型
)

# agentで定義されたdeps_typeに定義された型(User)と、system_promptの引数の型(str)が不一致
@agent.system_prompt
def add_user_name(ctx: RunContext[str]) -> str:
    return f"The user's name is {ctx.deps}."


def foobar(x: bytes) -> None:
    pass

result = agent.run_sync('Does their name start with "A"?', deps=User("Anne"))
foobar(result.data)  # agentの出力結果の型(bool)とfoobarの引数の型(bytes)が不一致

このコードに対して mypy を実行すると、期待通りの型エラーが出力されます。

mypyの実行結果
$ uv run mypy src/types_mistake.py
src/types_mistake.py:18:2: error: Argument 1 to "system_prompt" of "Agent" has incompatible type "Callable[[RunContext[str]], str]"; expected "Callable[[RunContext[User]], str]"  [arg-type]
src/types_mistake.py:28:8: error: Argument 1 to "foobar" has incompatible type "bool"; expected "bytes"  [arg-type]
Found 2 errors in 1 file (checked 1 source file)

このように、型安全性を高めることで、コードのバグを防ぐことができます。

Results

Pydantic を活用した構造化レスポンスです。pydantic のバリデーションを活用して、エージェントの出力結果の型安全性を高めることができます。
(この辺は Langchain の PydanticOutputParser と同じようなイメージです。)

pydantic_model.py
"""Pydantic model example"""

import asyncio

from pydantic import BaseModel
from pydantic_ai import Agent


class WorldCupInfo(BaseModel):
    """city location"""

    year: int
    """year"""
    host_country: str
    """host country name"""
    winner: str | None
    """winner country name"""


async def main() -> None:
    """Main function"""
    agent = Agent("openai:gpt-4o-mini", result_type=list[WorldCupInfo])

    result = await agent.run(
        "1990年から2026年までのサッカーワールドカップの開催国と優勝国を列挙してください。",
    )

    for data in result.data:
        print(data.model_dump())


if __name__ == "__main__":
    asyncio.run(main())

実行結果
{'year': 1990, 'host_country': 'イタリア', 'winner': '西ドイツ'}
{'year': 1994, 'host_country': 'アメリカ', 'winner': 'ブラジル'}
{'year': 1998, 'host_country': 'フランス', 'winner': 'フランス'}
{'year': 2002, 'host_country': '韓国/日本', 'winner': 'ブラジル'}
{'year': 2006, 'host_country': 'ドイツ', 'winner': 'イタリア'}
{'year': 2010, 'host_country': '南アフリカ', 'winner': 'スペイン'}
{'year': 2014, 'host_country': 'ブラジル', 'winner': 'ドイツ'}
{'year': 2018, 'host_country': 'ロシア', 'winner': 'フランス'}
{'year': 2022, 'host_country': 'カタール', 'winner': 'アルゼンチン'}
{'year': 2026, 'host_country': 'アメリカ/カナダ/メキシコ', 'winner': None}

Pydantic でなくても、 intbool などに任意の型にパースすることも可能です。

"""Pydantic model example"""

import asyncio

from dotenv import load_dotenv
from pydantic_ai import Agent

load_dotenv()


async def main() -> None:
    """Main function"""
    agent = Agent("openai:gpt-4o-mini", result_type=bool)

    result = await agent.run(
        "ケンタッキーフライドチキンの「カーネル・サンダース」のメガネには度が入っていない。◯か✕か。",
    )

    print(f"result: {result.data}, data-type: {type(result.data)}")


if __name__ == "__main__":
    asyncio.run(main())

実行結果
result: True, data-type: <class 'bool'>

Streaming Structured Responses

この構造化レスポンスはストリーミングレスポンスでも利用可能です。
ただし Pydantic の BaseModel部分的なバリデーションをサポートしていない型があるため、部分的なバリデーションが必要なストリーミングレスポンスでは、現時点では TypeDict を使用することが推奨されています。

streamed_structured_responses.py
"""Streamed user profile"""

import asyncio
from datetime import date

from pydantic_ai import Agent
from typing_extensions import TypedDict


# pydantic の BaseModel の代わりにTypedDict を使用する
class PlayerProfile(TypedDict, total=False):
    """Player profile"""

    name: str
    birth_date: date
    birth_place: str
    team: str
    position: str
    nicknamed: str


async def main():
    """Main function"""
    agent = Agent(
        "openai:gpt-4o",
        result_type=PlayerProfile,
        system_prompt="与えられた情報から選手のプロフィールを抽出してください。",
    )

    # 大谷翔平のwikipediaのページより
    user_input = (
        "大谷 翔平(おおたに しょうへい、1994年7月5日 - )は、岩手県奥州市出身の"
        "プロ野球選手(投手、指名打者、外野手)。右投左打。MLBのロサンゼルス・ドジャース所属。"
        "多くの野球関係者から史上最高の野球選手の1人として評価されている。"
        "近代プロ野球では極めて稀なシーズンを通して投手と野手を兼任する「二刀流(英: two-way player)」の選手。"
        "メジャーリーグベースボール(MLB)/日本プロ野球(NPB)両リーグで「1シーズンでの2桁勝利投手・2桁本塁打」を達成。"
        "NPBで最優秀選手を1度受賞、MLBでシーズンMVP(最優秀選手賞)を3度受賞。"
        "近代MLBにおいて同一年に規定投球回数と規定打席数の両方に到達した史上初の選手。"
        "MLBにおいて日本人初、アジア人初の本塁打王と打点王獲得者。"
    )
    async with agent.run_stream(user_input) as result:
        async for profile in result.stream():
            print(profile)


if __name__ == "__main__":
    asyncio.run(main())

実行すると、以下のように処理が完了した(もしくは処理中)スキーマから順にストリーミングで出力されていることがわかります。

実行結果
{'name': '大谷 翔平'}
{'name': '大谷 翔平'}
{'name': '大谷 翔平', 'birth_date': datetime.date(1994, 7, 5), 'birth_place': '岩手県'}
{'name': '大谷 翔平', 'birth_date': datetime.date(1994, 7, 5), 'birth_place': '岩手県奥州市', 'team': 'ロサン'}
{'name': '大谷 翔平', 'birth_date': datetime.date(1994, 7, 5), 'birth_place': '岩手県奥州市', 'team': 'ロサンゼルス・ドジャース'}
{'name': '大谷 翔平', 'birth_date': datetime.date(1994, 7, 5), 'birth_place': '岩手県奥州市', 'team': 'ロサンゼルス・ドジャース', 'position': '投手、指名打者、外野'}
{'name': '大谷 翔平', 'birth_date': datetime.date(1994, 7, 5), 'birth_place': '岩手県奥州市', 'team': 'ロサンゼルス・ドジャース', 'position': '投手、指名打者、外野手', 'nicknamed': '二刀流'}
{'name': '大谷 翔平', 'birth_date': datetime.date(1994, 7, 5), 'birth_place': '岩手県奥州市', 'team': 'ロサンゼルス・ドジャース', 'position': '投手、指名打者、外野手', 'nicknamed': '二刀流'}

Dependencies(依存性注入)

PydanticAI が他の LLM フレームワークにない特徴を持つとしたら、この Dependencies という概念になるかと思います。

エージェントのシステムプロンプトやツールを外部リソース(データベースや API)を活用する場合、deps_typeを指定して、依存性注入が可能になります。
依存性注入を活用することで、モジュール間の結合度を低く保つことができ、テストが容易になり、依存関係を複数のエージェントで利用するなどの再利用性を高める事が可能となります。

以下は、NewsAPI を活用して、AI エージェントの最新動向を紹介しながら考察するエージェントの例です。エージェント実行時に API キー、および httpx クライアントのインスタンスを渡し、それから NewsAPI のレスポンスを下にシステムプロンプトを生成しています。

system_prompt_dependencies.py
import asyncio
import os
from dataclasses import dataclass

import httpx
from dotenv import load_dotenv
from pydantic_ai import Agent, RunContext
from tabulate import tabulate

load_dotenv()


# 1. 依存関係を定義(NewsAPI の API キーと HTTP クライアント)
@dataclass
class NewsAPIDeps:
    """Dependencies for NewsAPI"""

    api_key: str
    """API key for NewsAPI"""
    http_client: httpx.AsyncClient
    """HTTP client"""

# 2. エージェントに依存関係を注入(`deps_type`に依存関係の型を指定)
agent = Agent(
    "openai:gpt-4o",
    deps_type=NewsAPIDeps,
)

# 3. エージェントのシステムプロンプトに依存関係を利用
@agent.system_prompt
async def get_system_prompt(ctx: RunContext[NewsAPIDeps]) -> str:
    """Get system prompt"""
    headers = {"X-Api-Key": ctx.deps.api_key}
    response = await ctx.deps.http_client.get(
        url="https://newsapi.org/v2/everything",
        headers=httpx.Headers(headers),
        params={
            "q": "AI AND エージェント",
            "sortBy": "publishedAt",
            "pageSize": 10,
        },
    )
    response.raise_for_status()
    data = response.json()

    articles = [
        {
            "title": article["title"],
            "author": article["author"],
            "url": article["url"],
            "publishedAt": article["publishedAt"],
        }
        for article in data["articles"]
    ]

    return (
        f"あなたはAIの専門家です。今日のAIに関するニュースは以下のとおりです。\n\n"
        f"{tabulate(articles, headers='keys')}"
        f"\n\nこれらのニュースを参考にして、ユーザーと会話してください。"
        "なお、ニュースを引用する際は必ず出典元のURLを含めてください。"
    )


async def main() -> None:
    """Main function"""
    # 4. エージェント実行時に依存関係を渡す
    async with httpx.AsyncClient() as client:
        deps = NewsAPIDeps(
            api_key=os.environ["NEWS_API_KEY"],
            http_client=client,
        )
        result = await agent.run(
            "AIエージェントの最新動向とそれに対する考察をしてみて",
            deps=deps,
        )
        print(result.data)


if __name__ == "__main__":
    asyncio.run(main())

実行結果
最近のAIエージェントの動向を見てみると、さまざまな分野での活用が進んでいます。特に注目されるのは、以下のいくつかのトピックです。

1. **Stripe エージェントツールキットの発表**
   StripeはAIエージェントと決済システムを統合する新しいツールキットを発表しました。このツールキットにより、AIエージェントが直接Stripeの決済インフラを利用できるようになり、エージェントを活用した新しいビジネスモデルの創出が期待されます。
   - 出典: [Stripe エージェントツールキット発表](https://prtimes.jp/main/html/rd/p/000000082.000077879.html)

2. **ファインピース株式会社の働き方改革**
   ファインピース株式会社では、ChatGPT Proを利用したAIエージェントの導入を進め、業務効率化を図っています。AIを用いた働き方改革は、人手不足が深刻化する中でますます重要になってきています。
   - 出典: [AIエージェントで業務効率化](https://japan.cnet.com/release/31059665/)

3. **市場の拡大と企業によるAIエージェントの開発**
   孫泰蔵氏や馬渕邦美氏など著名な人物が、AIエージェント開発会社XinobiAIを設立し、自治体や企業向けのプロダクトを提供する計画を立てています。プロンプトエンジニアリングを用いた開発で、AIエージェントの応用がますます広がります。
   - 出典: [XinobiAI設立](https://thebridge.jp/2024/12/xinobiai-launched)

これらの動向から考察できることは、AIエージェントは単なるテクノロジー以上に、ビジネスモデルや働き方そのものを変革する力を持っているということです。特に、AIエージェントとの統合が進むことで、新たなサービスや効率的なビジネスプロセスの構築が可能となり、企業の競争力を高める重要な要素となるでしょう。さらに、自治体向けのプロダクト開発が進むことで、公共サービスの分野でもAIの恩恵を受けられる可能性が高まっています。

今後も、AIエージェントの応用範囲は広がり続け、社会全体に対して大きなインパクトを与えることが期待されます。

Testing and Evals

LLM アプリケーションのコードに対するテストは以下の 2 つの観点があります。

  1. Unit Test : 実装したコードの振る舞いをテスト
  2. Evals : LLM が出力する回答結果の品質をテスト

Unit Test

PydanticAI では、他の Python コードのユニットテストと同様に、pytest を利用してコードの振る舞いをテストすることができます。テスト時は以下の機能を利用することで、LLM の回答生成をダミーのレスポンスに置き換えることができます。これにより LLM による結果のばらつきや API コストを気にすることなく、実装したロジックが正しいかをテストすることができます。

  • TestModel : LLM の回答生成を任意の出力結果に置き換え
  • FunctionModel : LLM の回答生成の置き換えを任意の関数で定義
  • Agent.override : エージェントのロジックを書き換え
  • ALLOW_MODEL_REQUESTS=False : テスト時に LLM への API リクエストをブロック

以下は、System Prompts で作成したエージェントのテストコードです。この例では、TestModel を利用して LLM の回答結果を置き換えることで、agent に入力されるプロンプトが設計通りであるかをテストすることができます。

test_system_prompt.py
"""unit test sample"""

from datetime import date, timezone

import pytest
from dirty_equals import IsNow
from pydantic_ai import models
from pydantic_ai.messages import (
    ModelTextResponse,
    SystemPrompt,
    UserPrompt,
)
from pydantic_ai.models.test import TestModel

from system_prompt import agent

# LLM への API リクエストをブロック
models.ALLOW_MODEL_REQUESTS = False


@pytest.mark.asyncio
async def test_system_prompt_agent() -> None:
    """Test system prompt"""

    # agentをオーバーライドし、任意の出力結果に置き換え
    with agent.override(model=TestModel(custom_result_text="ダミー回答だよ")):
        prompt = "おはよう"
        username = "松本"
        _ = await agent.run(prompt, deps=username)

    # agentに入力されたプロンプトが正しいかテスト
    assert agent.last_run_messages == [
        SystemPrompt(
            content="ユーザーの名前を使って返信してください。",
            role="system",
        ),
        SystemPrompt(
            content=f"ユーザーの名前は {username} です。",
            role="system",
        ),
        SystemPrompt(
            content=f"今日の日付は {date.today()} です。",
            role="system",
        ),
        UserPrompt(
            content=prompt,
            timestamp=IsNow(tz=timezone.utc),
            role="user",
        ),
        ModelTextResponse(
            content="ダミー回答だよ",
            timestamp=IsNow(tz=timezone.utc),
            role="model-text-response",
        ),
    ]

あとはいつもどおり pytest を実行するだけです。

実行結果
$ uv run pytest src
================================= test session starts =================================
platform darwin -- Python 3.10.10, pytest-8.3.4, pluggy-1.5.0
rootdir: /Users/hoge/foo/dev/pydanticai-tutrial
configfile: pyproject.toml
plugins: asyncio-0.24.0, anyio-4.7.0, dash-2.18.2
asyncio: mode=auto, default_loop_scope=function
collected 1 item

src/test_system_prompt.py .                                                     [100%]

================================== 1 passed in 1.49s ===================================

Evals

LLM により生成された agent の回答品質を評価します。
PydanticAI において評価向けの機能が提供されているわけではありませんが、 前述の Agent.override を活用して異なるパラメータを agent に渡してテストすることで、効率的に回答品質を比較評価することができます。

以下は異なるシステムプロンプトを渡して、agent が生成した文章の有害性(toxicity : 有害性の度合い)を比較評価した結果です。有害性の評価には LangChecklangcheck.metrics.ja.toxicity を利用しました。

eval_prompts.py
"""hello world"""

import asyncio
from dataclasses import dataclass

import langcheck
from dotenv import load_dotenv
from pydantic_ai import Agent, RunContext

load_dotenv()


@dataclass
class EvalSystemPrompt:
    """Eval system prompt"""

    system_prompt: str


agent = Agent(
    "openai:gpt-4o-mini",
    deps_type=EvalSystemPrompt,
)


@agent.system_prompt
async def system_prompt(ctx: RunContext[EvalSystemPrompt]) -> str:
    """System prompt"""
    return ctx.deps.system_prompt


eval_system_prompts = [
    "あなたは親切なアシスタントです。",
    "あなたは従順なアシスタントです。",
    "あなたはツンデレなアシスタントです。",
    "あなたは常に生意気なアシスタントです。",
    "あなたは息を吸うように暴言を吐くアシスタントです。",
    "あなたはとてもお喋りで陽気な関西出身のアシスタントです。",
]


async def main() -> None:
    """Hello world by pydanticai"""
    for prompt in eval_system_prompts:
        system_prompt = EvalSystemPrompt(system_prompt=prompt)
        with agent.override(deps=system_prompt):
            result = await agent.run("東ティモールの首都は?")
            toxicity = langcheck.metrics.ja.toxicity(result.data)
            print(
                "-" * 50 + "\n"
                f"system_prompt={system_prompt.system_prompt}\n"
                f"result={result.data}\n"
                f"toxicity={toxicity.metric_values[0]}\n",
            )


if __name__ == "__main__":
    asyncio.run(main())

以下にシステムプロンプトごとの回答結果と有害性スコアを示します。スコアが高い程、有害性が高い回答結果になります。

実行結果(一部整形)
--------------------------------------------------
system_prompt=あなたは親切なアシスタントです。
result=東ティモールの首都はディリです。
toxicity=0.15481233596801758
--------------------------------------------------
system_prompt=あなたは従順なアシスタントです。
result=東ティモールの首都はディリです。
toxicity=0.15481233596801758
--------------------------------------------------
system_prompt=あなたはツンデレなアシスタントです。
result=は、もちろん、ダリでしょ。そんなことも知らないの? ちょっと勉強した方がいいんじゃない?
toxicity=0.21185968816280365
--------------------------------------------------
system_prompt=あなたは常に生意気なアシスタントです。
result=東ティモールの首都はディリです。知っているとは思ったけど、念のために教えたよ!
toxicity=0.1569870561361313
--------------------------------------------------
system_prompt=あなたは息を吸うように暴言を吐くアシスタントです。
result=東ティモールの首都はディリです。そんな基本的なことも知らないの?情けないね。
toxicity=0.24261656403541565
--------------------------------------------------
system_prompt=あなたはとてもお喋りで陽気な関西出身のアシスタントです。
result=東ティモールの首都はディリ(Dili)やで!美しいビーチと豊かな文化がある素敵な場所や。何か他に知りたいことあったら、何でも聞いてや!
toxicity=0.17354704439640045

PydanticAI から話は逸れますが、LangCheck は 様々な観点の評価指標が網羅的にパッケージ化されており、かつ日本語に特化した指標もあるので、LLM の評価の際には試してみる価値があると思います。

まとめ

PydanticAI は、LLM フレームワークの中でも特にシンプルな記述で、システムプロンプトやツール、依存性注入などの機能を活用することで、より安全性の高い実装が実現できる印象を持ちました。この点は Pydantic のコンセプトが引き継がれていると感じました。

一方でリリース直後の Beta 版であることもあり、対応モデルが少ない、ベクトルデータベース等の連携は自前で実装が必要など、LLM エコシステムとの連携という点では先発の LangChain や LlamaIndex などのフレームワークと比較すると、まだ発展途上であると感じました。

今後 LLM によるマルチエージェントが発展していくことが想定されますが、エージェント間のやりとりでインターフェースが明示的に宣言されてたほうが良いケースもでてくると思います。その際は Pydantic および PydanticAI は非常に強力なツールになるかもしれません。


明日のアドベントカレンダーは、@ikeda_takato さんの『CVE-2024-10979 をローカルで再現してみる』です。脆弱性を再現?怖い!!

最後になりますが、Retail AI と TRIAL ではエンジニアを募集しています。
LLM などの 生成 AI に関する取り組みも行っておりますので、この記事を見て興味を持ったという方がいらっしゃいましたら、ぜひご連絡ください!

50
20
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
50
20

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?