はじめに
LangChainとLangGraphによるRAG・AIエージェント[実践]入門
を読んでいて、10章で躓いたので、初心に戻って、一つずつ紐解いて学習することにしました。
今回のテーマは「langchain_community.llms」モジュール「FakeListLLM」関数
独り言
実際のLLMを使いたいけれど、今は基本文法のやり直しなので、FakeListLLMで代替。
【基礎確認】pythonのlangchain_core.output_parsersモジュールStrOutputParser関数でこの関数は使っているけれど、FakeListLLMに焦点を当てます。
後々負荷に耐えられなくなったら実際のLLMを使うことにします。
前回までの投稿
- 必要なライブラリとモジュールをインポートする
【基礎確認】pythonのoperatorモジュール
【基礎確認】pythonのtypingモジュール
【基礎確認】pythonのdotenvモジュール
【基礎確認】pythonのlangchain_core.output_parsersモジュールStrOutputParser関数
【基礎確認】pythonのlangchain_core.promptsモジュールChatPromptTemplate関数
サンプルコード
sample.py
from langchain_community.llms import FakeListLLM
# ダミーの応答を設定
responses = [
"こんにちは!今日は晴れです。",
"今日は曇りですが、雨は降りません。",
"今日は雨が降っています。傘を持って出かけてください。"
]
# FakeListLLMの初期化
llm = FakeListLLM(responses=responses)
# モデルを使用して応答を生成
response = llm.invoke("こんにちは、AIアシスタントさん。今日の天気はどうですか?")
print(response)
こんにちは!今日は晴れです。
解説
-
langchain_community.llms
モジュールからFakeListLLM
クラスをインポートする -
responses
リストを定義し、ダミーの応答を設定します。
このリストには、モデルが返すべきテキストが含まれる。 -
llm = FakeListLLM(responses=responses)
で、FakeListLLM
モデルを初期する。 -
responses
パラメータで、先ほど定義したダミーの応答リストを指定する。
このモデルは、呼び出されるたびにリストから順番に応答を返す。 -
response = llm.invoke("こんにちは、AIアシスタントさん。今日の天気はどうですか?")
で、初期化したモデルを使用してプロンプトに対する応答を生成する。
このメソッドは、指定されたプロンプトに基づいてダミーの応答を取得する。 -
print(response)
で、生成された応答の内容を表示する。
このサンプルコードを実行すると、事前に設定された天気に関するダミーの応答が表示される。