1
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LangChainの基本構造を理解する 〜 Google Colabで学ぶ主要コンポーネントと役割 〜

Last updated at Posted at 2024-12-31

はじめに

GPTなどの大規模言語モデル(LLM)を活用しようとすると、プロンプトの設計や外部ツールの連携など、意外とやることが多くなります。そこで注目を集めているのがLangChainです。LangChainは、LLMをアプリケーションに組み込みやすくするためのフレームワークです。

本記事では、LangChainの主要コンポーネントとそれぞれの役割について解説するとともに、Google Colab上で動かせる簡単なハンズオンコードを紹介します。

image.png

Google Colabで環境を準備しよう

1. Googleアカウントにログイン

Google ColabはGoogleアカウントさえあれば無料で使えます。

2. 新しいノートブックを作成

Google Colabにアクセスし、新しいノートブックを作成します。

3. LangChainのインストール

ノートブック上で以下のセルを実行し、LangChainやOpenAIのライブラリをインストールします。

!pip install langchain openai langchain_community

OpenAIのAPIキーが必要な場合は、別途openai.api_keyにセットしてください。

LangChainの主要コンポーネント

LangChainでは主に以下のコンポーネントが用意されています。ここを理解すると、複雑な処理やフローを組む際にスムーズです。

image.png

1. PromptTemplate(プロンプトテンプレート)

LLMに送る文章や指示をテンプレート化し、変数を埋め込むことができます。

2. Memory(メモリ)

過去の会話や履歴を保持し、LLMに渡すコンテキストを管理します。

3. Chain(チェーン)

PromptやLLM呼び出し、結果の加工など複数ステップをつなげて一連の処理を実装します。

4. Agent(エージェント)

複数のTool(外部機能)を動的に使い分け、タスクを進める"自律的な"仕組みを提供します。

5. Tool(ツール)

Agentから呼び出せる外部機能(API呼び出し、計算処理、DB問い合わせなど)を実装します。

ハンズオン:LLMChainを使ってみる

ここでは、PromptTemplate + Memory + LLMChainを使った最小構成の例を試してみましょう。Google Colabで以下のセルを動かしてみてください。

image.png

# ===============================
# LangChainハンズオン
# ===============================

# 1. 必要なライブラリをインポート
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
from langchain.memory import ConversationBufferMemory

# 2. OpenAI APIキーの設定(お持ちの場合)
# ※ もしキーがない場合、OpenAIのアカウント登録&APIキー取得が必要です
import os
os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"

# 3. PromptTemplateの定義
template = """
以下はユーザとの会話です。
会話履歴: {history}
ユーザの質問: {user_input}
アシスタントとして親切かつわかりやすい回答をしてください:
"""
prompt = PromptTemplate(
    input_variables=["history", "user_input"],
    template=template,
)

# 4. メモリ(会話履歴管理)の用意
memory = ConversationBufferMemory()

# 5. LLMのインスタンスを用意
llm = OpenAI(
    temperature=0.7  # 応答のランダム性。0に近いほど一定した答えになる
)

# 6. Chainの構築 (LLMChainを使う)
chain = LLMChain(
    llm=llm,
    prompt=prompt,
    verbose=True,
    memory=memory
)

# 7. ユーザ入力を連続的に送ってみる
user_queries = [
    "LangChainって何に使われるフレームワークですか?",
    "主なコンポーネントにはどんなものがありますか?",
    "ありがとうございました!"
]

for q in user_queries:
    answer = chain.run(user_input=q)
    print(f"User: {q}\nAI: {answer}\n{'-'*40}")

実行結果のポイント

  • ConversationBufferMemoryによって、前のやり取りが保存されます。
  • 2回目・3回目の回答では、過去のユーザの質問やアシスタントの回答を踏まえた応答が返ってくるはずです。

実行例:
image.png

コンポーネントの役割を振り返る

PromptTemplate

「会話履歴」を含む文章の雛形を用意し、ユーザ入力を挿入してLLMが解釈できる形に整形します。

Memory

過去の会話を保持し、次のプロンプトに挿入できるようにします。

LLMChain

PromptTemplateとLLMのセットを"ひとつのチェーン"として扱えます。

Agent & Tool

Agentに複数のツールを登録し、Agentが必要に応じて呼び出します(例:検索API・計算処理・DB問い合わせなど)。

応用:Agentを使う場合は?

もしGoogle検索や計算処理など、外部機能を必要とする場合はAgentを活用します。Agentは「どのToolをいつ使うか」を自律的に判断しながらタスクを遂行します。

具体的には以下の要素が必要になります:

  • Agentを定義する(ZeroShotAgentなど)
  • Toolを定義する(計算やAPI呼び出しの関数)
  • AgentExecutorを通して、LLMに"思考しながら"ツールを使わせる

Agent周りは少し複雑になるため、まずは本記事のようにLLMChainMemoryのシンプルな利用から始めてみてください。

まとめ

image.png

  • LangChainはPromptTemplate、Memory、Chain、Agent、Toolといったコンポーネントを軸に設計されています
  • 本記事のハンズオンでは、PromptTemplate + Memory + LLMChainで最小構成の対話を実装しました
  • Google Colabならすぐにセットアップ可能なので、記事中のコードをコピー&ペーストして試してみてください
  • 次のステップとしては、AgentとToolを使った「外部API連携」や「複数ステップの自動タスク実行」に挑戦してみることをおすすめします

参考リンク

1
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?