0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【基礎確認】pythonのlangchain_community.llmsモジュールFakeListLLM関数

Posted at

はじめに

LangChainとLangGraphによるRAG・AIエージェント[実践]入門
を読んでいて、10章で躓いたので、初心に戻って、一つずつ紐解いて学習することにしました。
今回のテーマは「langchain_community.llms」モジュール「FakeListLLM」関数

独り言

実際のLLMを使いたいけれど、今は基本文法のやり直しなので、FakeListLLMで代替。
【基礎確認】pythonのlangchain_core.output_parsersモジュールStrOutputParser関数でこの関数は使っているけれど、FakeListLLMに焦点を当てます。
後々負荷に耐えられなくなったら実際のLLMを使うことにします。

前回までの投稿

  1. 必要なライブラリとモジュールをインポートする
    【基礎確認】pythonのoperatorモジュール
    【基礎確認】pythonのtypingモジュール
    【基礎確認】pythonのdotenvモジュール
    【基礎確認】pythonのlangchain_core.output_parsersモジュールStrOutputParser関数
    【基礎確認】pythonのlangchain_core.promptsモジュールChatPromptTemplate関数

サンプルコード

sample.py
from langchain_community.llms import FakeListLLM

# ダミーの応答を設定
responses = [
    "こんにちは!今日は晴れです。",
    "今日は曇りですが、雨は降りません。",
    "今日は雨が降っています。傘を持って出かけてください。"
]

# FakeListLLMの初期化
llm = FakeListLLM(responses=responses)

# モデルを使用して応答を生成
response = llm.invoke("こんにちは、AIアシスタントさん。今日の天気はどうですか?")

print(response)
こんにちは!今日は晴れです。

解説

  1. langchain_community.llmsモジュールからFakeListLLMクラスをインポートする
  2. responsesリストを定義し、ダミーの応答を設定します。
    このリストには、モデルが返すべきテキストが含まれる。
  3. llm = FakeListLLM(responses=responses)で、FakeListLLMモデルを初期する。
  4. responsesパラメータで、先ほど定義したダミーの応答リストを指定する。
    このモデルは、呼び出されるたびにリストから順番に応答を返す。
  5. response = llm.invoke("こんにちは、AIアシスタントさん。今日の天気はどうですか?")で、初期化したモデルを使用してプロンプトに対する応答を生成する。
    このメソッドは、指定されたプロンプトに基づいてダミーの応答を取得する。
  6. print(response)で、生成された応答の内容を表示する。

このサンプルコードを実行すると、事前に設定された天気に関するダミーの応答が表示される。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?