66
67

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

ChatGPTとLangChainで便利な検索ツールを作る

Last updated at Posted at 2023-05-02

 この記事は記事投稿キャンペーン_ChatGPTの記事です。

以下は、何でもできるAIをコンセプトに個人開発したものです。
よかったら見てみてください。
CreateToolAGI:ChatGPTとLangChainで何でもできるAI

はじめに

こんにちは、fuyu-quantです!
 今回はLangChainやllama-indexなどのOSSを使いURL vector searchという,URLを与えるだけでベクトルデータベースを作成し,質問を与えると類似している内容のURLとそのリンク先ごとに質問内容を踏まえた説明を出力してくれるツールを作成しました.

 まとめサイトや個人のブログなどでChatGPTを使った検索や内容の解説をさせたりする際に参考になるかと思います.実装内のプロンプトを書き換えればそれぞれのサイトにあったものが構築できると思います.

記事に誤り等ありましたらご指摘いただけますと幸いです。

(※この記事の「ChatGPT」は「ChatGPT API」の意味になります)

以下が今回の作成したものになります。

目次

1. URL vector searchについて

Open In Colab

 今回作成したツールは、与えたURLに対してリンク先のテキストデータにもとづいて検索を行い類似している内容のURLと検索内容を考慮した説明文の出力を行う事ができます.
(※実行にはOpeaAIのAPIが必要です)

今回は以下のサイトのリンクを使っています。

また完全に告知になるのですが会社で以下のようなイベントを実施予定です。
データ活用の先端事例について学びたい方は是非見てみてください!!

使い方は以下のようになります。

まずはじめに検索対象となるベクトルデータベースを作成します.

# 好きなパスを指定してください
path = '/content/qdrant'
database = vectordatabase.create_vectordatabase(path = path)

次に検索対象とするリンクを作成したデータベースに与えます.

(検索はURLごとの検索になります.データベースの作成には少し時間がかかりますが一度追加したものは永遠に保存されるので新しいものを追加したい時だけ実行することになります)

urls = [
    "https://www.brainpad.co.jp/doors/knowledge/01_dx_natural_language_processing_1/",   
    "https://www.brainpad.co.jp/doors/knowledge/01_quantitative_evaluation_year_2024_problem/",   
    "https://www.brainpad.co.jp/doors/news_trend/logistics_industry_year_2024_problem/",   
    "https://www.brainpad.co.jp/doors/news_trend/materials_informatics/", 
    .......
    "https://www.brainpad.co.jp/doors/feature/02_conference_2021_crosstalk_session_resona_2/"
]

vectordatabase.add_text(urls, database)

これで作成は完了しました。

以下のように質問をすると,

query = "機械学習"
output1 = output.description_output_with_scoer(database, query, num_output=3)

質問内容に関連するリンクと質問内容を踏まえた内容が出力されます。
(※今回は10種類ほどしかテキストを与えてないので少しずれている内容も出力されました.)

# 出力結果
output1

{'descritption0': 'この記事は、梅田氏による自然言語処理のビジネス活用についての指摘や、...',
 'score0': 0.8361707487956747,
 'url0': 'https://www.brainpad.co.jp/doors/knowledge/01_dx_natural_language_processing_1/',
 'descritption1': 'この記事は、ブレインパッドの3人がデジタル技術を用いて物量平準化...',
 'score1': 0.833812125722534,
 'url1': 'https://www.brainpad.co.jp/doors/knowledge/01_quantitative_evaluation_year_2024_problem/',
 'descritption2': 'この記事は、OpenAI社が開発したChatGPTという対話型AIについて紹介...',
 'score2': 0.8233397829398639,
 'url2': 'https://www.brainpad.co.jp/doors/news_trend/about_chatgpt/'}

他にも何種類かの出力方法を用意しています.

現在の実装だと検索結果を3つ出力するのに30秒ほどかかってしまいますが,時間がかかっている箇所はLLMの実行によるもので並列化可能なので少なくとも10秒ぐらいまでにはできそうです.

2. 使用したライブラリ

  • LangChain
    • LLMとの連携をする上でとても使いやすいので使用しています。今後OpenAIのLLM以外のLLMを使う際も簡単に切り替えられるようになっていくと思っているのでその点でも採用しています。
  • Qdrant
    • ベクトル検索とベクトルデータベースが使いやすいのとLangChainからも使えるので採用しました。
  • llama-index
    • LangChainのURL toolがうまく実行できなかったためURLからの情報の取得にはllama-indexを使いました.
  • OpenAI
    • OpenAIのLLMを利用するため使っています。

各ツールのバージョン

!pip install langchain==0.0.153
!pip install llama-index==0.5.27
!pip install qdrant-client==1.1.6
!pip install openai==0.27.5

3. 各機能の実装方法

今回作成したもののポイントとなる実装方法を紹介します.

URLからデータを取得

llama_indexの機能を使いURLを渡し,テキスト情報の抽出を行います.

今回は以下のページの情報を取得してきます.

from llama_index.readers import BeautifulSoupWebReader

urls = [
    "https://www.brainpad.co.jp/doors/knowledge/01_dx_natural_language_processing_1/",    
    "https://www.brainpad.co.jp/doors/knowledge/01_quantitative_evaluation_year_2024_problem/"
]

documents = BeautifulSoupWebReader().load_data(urls=urls)

取得結果は以下のようなものになります.

# 1つ目のリンクに関する情報
documents[0]

# 出力結果
Document(text='\n\n\n\n\n\n\n\n\n\n \n\n\n\n\n【前編】自然言語処理技術を用いた「テキストデータ」
のビジネス活用の現在地 | DX・データ活用情報発信メディア-DOORS DX\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n
\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n \n\n\n\n\n\nベストなDXへの入り口が見つかるメディア
......

テキストデータの要約

取得したデータを要約します.これは以下の2点の理由から実施しました.

  • 検索クエリに対して内容を反映した出力を生成する際にテキストデータが長くなるとLLMに入力する事ができなくなる
  • 検索後にヒットしたものを要約するようにすると最終的な出力を生成するのに時間がかかってしまう

ここの項目は,「テキストデータが長くない場合」や「時間はかけて良いが正確な出力が欲しい場合」は省力してよいと考えています.

今回は以下のページについて要約を行います.

テキストデータを分割し,LLMに入力するためのデータ形式に変換する

from langchain.text_splitter import CharacterTextSplitter
from langchain.docstore.document import Document

text =  "機械学習プロジェクトを推進するにあたって大切なこと~DX推進時...."

# 1000文字ごとに'\n\n'を挿入する
chunks = [text[i:i+1000] for i in range(0, len(text), 1000)]
result = '\n\n'.join(chunks)

# '\n\n'で文字列を分割し一つのチャンクとする
text_splitter = CharacterTextSplitter(
    separator = "\n\n",  # 文章を分割する文字列
    chunk_size = 1000,  # チャンクの文字数
    chunk_overlap = 0,  # チャンク間で重複させる文字数
)

# 分割した文字列をLLMに入力するデータ形式に変換する
split_texts = text_splitter.split_text(result)
split_docs = [Document(page_content=t) for t in split_texts]

今回は"map_reduce"という方法を使い,二段階に分けて要約を行うのでそれぞれの段階でのプロンプトを作成します.

map_reduceについてはこちらのリンクを参考にしてみてください.

from langchain import PromptTemplate

template1 = """
次の文章を日本語で500文字程度に要約してください.
文章:{text}
"""

template2 = """
次の文章を日本語で1200文字程度に要約してください.
文章:{text}
"""

prompt1 = PromptTemplate(
    input_variables = ['text'],
     template = template1,
)

prompt2 = PromptTemplate(
    input_variables = ['text'],
     template = template2,
)

要約の実行

from langchain.chains.summarize import load_summarize_chain

llm = OpenAI(temperature=0, max_tokens = 1200)

chain = load_summarize_chain(
    llm = llm, 
    chain_type="map_reduce",
    # それぞれの要約を行うときのテンプレ
    map_prompt = prompt1,
    # 要約文の要約文を作るときのテンプレ
    combine_prompt = prompt2
    )

summary = chain.run(split_docs)

summary

# 出力結果
ブレインパッドは機械学習プロジェクトを推進するため企画PoCフェーズを重要視しています企画フェーズでは
プロジェクト全体の目的とPoCの目的をお客様と弊社ですり合わせPoCの目的で多いのは機械学習モデルの精度検証
であることを確認しますまたプロジェクトを始める前に知っておくべきことやプロジェクトの進め方のイメージを実体験
に基づきお伝えしていますPoCフェーズでは企画フェーズで設定した目的に沿って実際に検証を実施し
機械学習モデルの性能がビジネスに使えるレベルまで達しているかを確認しますアノテーションの重要性も改めて
感じることができますプロジェクトを取り組む際には精度を上げることが必ずしも正しいとは限らないことを
理解しておくことが重要です

今回は以上のような方法で取得したテキストを要約しましたが,設定や要約の方法を変えることでよりもとの文章の情報を失わずに要約できる方法があると思うのでさらに改善できる箇所かと思います.

検索データベースの作成

検索対象の文章を保存するためのベクトルデータベースを作成します.今回は以下の理由からQdrantというベクトルデータベースのサービスを使います.

Qdrantのベクトルデータベースの作成は

from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores import Qdrant
from langchain.schema import Document

embeddings = OpenAIEmbeddings()

# サンプルのデータを
sample = [Document(page_content="sample", metadata={"url": "aaaa" })]
# ベクターインデックスを作成する
qdrant = Qdrant.from_documents(sample, embeddings, location=":memory:", collection_name= "my_documents")

次に以下のページの情報を登録してみます

二つ目以降のデータの登録は以下のように行います.

text = "データドリブン文化醸成とは(後編) | DOORS DX ベストなDXへの入り口が見つかる...."

# textをLangChainで扱えるようにデータ形式を変換する
# metadataの登録はしてもしなくても良い
docs = [Document(page_content=text2, metadata={"url": "https://www.brainpad.co.jp/doors/knowledge/01_data_governance_9_1/" })]

qdrant.add_documents(docs, collection_name="my_documents")

検索の実行

上記の方法で作成したベクトルデータベースに対して検索を行います.検索方法にはスコア付きの出力を得るものやMMRという類似度の高さ以外に取得するデータの多様性を高める方法などがあります.

実行結果は以下のようになります

query = "データドリブン文化醸成とは"

# 類似度スコア付きの出力
# 類似度スコアが高いものから順番に取得してきます
found_docs = qdrant.similarity_search_with_score(query)
document, score = found_docs[0]
print(document.page_content)
print(f"\nScore: {score}")

# 出力結果
データドリブン文化醸成とは後編 | DOORS DX ベストなDXへの入り口が見つかる....
Score: 0.9071070813602901

# スコアなしの出力
# 類似度が高いものから順番に取得してきます
found_docs = qdrant.similarity_search(query)
print(found_docs[0].page_content)

# 出力結果
データドリブン文化醸成とは後編 | DOORS DX ベストなDXへの入り口が見つかる....

# MMR(Maximal Marginal Relevance)
# 類似度が高いものを取得したいがなるべく多様な結果も取得したいときに使う
found_docs = qdrant.max_marginal_relevance_search(query, k=2, fetch_k=10)
print(found_docs[0].page_content)

# 出力結果
データドリブン文化醸成とは後編 | DOORS DX ベストなDXへの入り口が見つかる....
  • MMRについては以下のサイトなどでも紹介されています

4. おわりに

 最後までお読みいただきありがとうございます。
今回は任意のURLの内容についての検索や質問内容を踏まえたテキストベースの出力を得るためのツールを作成しました.現状では元の文章を要約しているのであまり元の内容が反映できていないものがあったりするので,そのあたりは改善の余地があると考えています.改善案などがあればぜひ教えていただきたいです!

記事に誤り等ありましたらご指摘いただけますと幸いです。

5. 参考文献

66
67
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
66
67

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?