LoginSignup
1
1

LangChainでPDF検索をやってみた(FAISS、ConversationBufferMemory、ConversationalRetrievalChain)

Last updated at Posted at 2023-12-02

はじめに

LangChainの会話履歴を保存するmemory機能の一つであるConversationBufferMemoryを検証してみました。LangChainのConversationBufferMemoryの挙動を確認したい方におすすめです。

開発環境

  • Windows 11
  • Python 3.11.5
  • dotenv
  • LangChain
  • Azure OpenAI Embeddings
  • CharacterTextSplitter
  • FAISS
  • PyPDFLoader

実装

事前準備

今回は以下の記事で事前にベクトルストアを作成し、そこから回答を生成する方式をとります。

私はランニングを行っていることもあり、以下のランニング時計の取扱説明書のPDFをベクトル化しました。

必要なパッケージのインストール

以下のコマンドで必要なパッケージをインストールします。

pip install langchain openai python-dotenv faiss-cpu PyPDF2 tiktoken

環境変数の設定と依存関係の読み込み

.envファイルを作成し、Azure Open AIの環境変数の設定をします。
ご自身の環境に合わせて設定してください。

.env
# APIキー
OPENAI_API_KEY = "XXXXX"

# エンドポイント
AZURE_OPENAI_ENDPOINT = "XXXXX"

# 使用するOpenAI APIのバージョン
OPENAI_API_VERSION = "XXXXX"

  
必要なライブラリをインポートします。

test.py
# 環境変数を.envファイルから読み込む
from dotenv import load_dotenv
load_dotenv()

from langchain.chat_models import AzureChatOpenAI
from langchain.embeddings import AzureOpenAIEmbeddings

from langchain.vectorstores import FAISS
from langchain.chains import ConversationalRetrievalChain
from langchain.memory import ConversationBufferMemory

使用するモデルの準備

Azure Chat OpenAIとAzure OpenAI Embeddingsを定義します。

test.py
llm = AzureChatOpenAI(
    temperature=0,
    azure_deployment="gpt-35-turbo-16k",
)

embeddings = AzureOpenAIEmbeddings(
    azure_deployment="text-embedding-ada-002",
    chunk_size=1,
)

FAISSベクトルストアの読み込み

ローカルに保存しているベクトルストアの読み込みを行い、as_retriever()メソッドで検索機能を作成します。

test.py
vectorstore = FAISS.load_local("./vectorstore", embeddings)
retriever = vectorstore.as_retriever()

ConversationBufferMemoryの定義

以下のようにConversationBufferMemoryを定義します。会話履歴と出力のキーを指定しています。
ConversationBufferMemoryは会話履歴を全て保持します。

test.py
memory = ConversationBufferMemory(memory_key="chat_history", return_messages=True)

chainを作成し、実行

最後にchainを作成し、実行します。質問は3問準備しており、2問目は1問目を詳しく説明する質問、3問目はそれまでの会話をもとに回答できるかを検証する質問に設定しました。

test.py
chain = ConversationalRetrievalChain.from_llm(
    llm=llm, retriever=retriever, memory=memory
)

results = chain("心拍変動は計測可能ですか?")
print("あなた:", results["question"])
print("ボット:", results["answer"])
print("会話履歴:", results["chat_history"])

results = chain("もっと詳しく説明してください。")
print("あなた:", results["question"])
print("ボット:", results["answer"])
print("会話履歴:", results["chat_history"])

results = chain("血中酸素濃度は?")
print("あなた:", results["question"])
print("ボット:", results["answer"])
print("会話履歴:", results["chat_history"])

  
これまでのPythonコードを上から順に記述し終わったら、Pythonファイルを実行します。
実行結果は以下のようになりました。

image.png

会話履歴が全て保存されていることが確認できます。そのため、会話履歴が増えてくると、入力トークン数が増えてしまうといったデメリットがあります。入力トークン数が増えると、エラーが発生したり、料金が増えたりするため、注意が必要です。
以下のコードで会話履歴を削除することができます。

memory.clear()

上記のコードを2問目の質問のコードの最後に付け加えて実行すると以下のようになりました。

image.png

3問目の会話履歴の部分で、1、2問目の履歴が削除されていることが確認できます。

おわりに

LangChainの会話履歴を保存するmemory機能の一つであるConversationBufferMemoryを検証してみました。文書検索に会話履歴を導入する際の選択肢の一つになります。ぜひ、試してみてください。

最後までお読みいただき、ありがとうございました! 記事に関する質問等ございましたら、コメントもしくは以下のDMにてよろしくお願いします。

参考文献

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1