LoginSignup
30
42

Python約30行で作る Bedrock x Claude3 のStreamingチャットアプリ

Last updated at Posted at 2024-04-22

これまで見て見ぬふりをしてきた「Streamlit上でStreaming出力させる」プログラムを作ってみます。

ライブラリのインストール

いつのまにか「langchain-aws」なるものが生まれているので今回は最終的にはそれを使います。

pip install -U boto3 streamlit langchain langchain-aws

まずboto3からStreamingしてみる

以下を参考に、リクエストとレスポンス取得をClaude3に合わせて微調整します。

import boto3
import json

bedrock = boto3.client(service_name='bedrock-runtime')

body = json.dumps({
    "anthropic_version": "bedrock-2023-05-31",
    "max_tokens": 4000,
    "messages": [{"role": "user", "content": "カレーの作り方を説明してください"}]
})

response = bedrock.invoke_model_with_response_stream(modelId="anthropic.claude-3-haiku-20240307-v1:0", body=body)

stream = response.get("body")
if stream:
    for event in stream:
        chunk = event.get("chunk")
        if chunk:
            chunk_json = json.loads(chunk.get("bytes").decode())
            if chunk_json["type"]=="content_block_delta":
                print(chunk_json["delta"]["text"], end="", flush=True)

レスポンスの取得が少しごちゃごちゃしましたが、一応それっぽく動きました。

LangChainからStreamingしてみる

以下を参考にします。

invokeの代わりにstreamを呼び出せばchunkが取れるっぽいのでそういうプログラムを書いてみます。

from langchain_aws import ChatBedrock
import streamlit as st

LLM = ChatBedrock(model_id="anthropic.claude-3-haiku-20240307-v1:0", model_kwargs={"max_tokens": 4000})
for chunk in LLM.stream("カレーの作り方を説明してください"):
    print(chunk.content, end="", flush=True)

こちらもそれっぽく動きました。boto3を直接叩くより圧倒的に短いですね。

Streamlitでチャットアプリを作ってみる

以下のようにCallbackHandlerでon_llm_new_tokenイベントを拾って出力する方法もありそうですが、

もう少し楽に作れそうだったので今回は以下の方法を参考にします。

上記を見てみると、こちらもchainに対してinvokeではなくstreamで呼び出して、それをwrite_streamに突っ込めば良きに計らってくれるようです。

from langchain_aws import ChatBedrock
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.messages import HumanMessage
import streamlit as st

# chainの定義
prompt = ChatPromptTemplate.from_messages([
        ("system","あなたはAIチャットボットです"),
        MessagesPlaceholder(variable_name="messages"),
        MessagesPlaceholder(variable_name="human_message")])
LLM = ChatBedrock(model_id="anthropic.claude-3-haiku-20240307-v1:0", model_kwargs={"max_tokens": 4000})
chain = prompt | LLM

# 初回はsession領域を作成
if "messages" not in st.session_state:
    st.session_state["messages"] = []

# 2回目以降はsessionを元に全量再描画を行う        
for message in st.session_state.messages:
    with st.chat_message(message["role"]):
        st.markdown(message["content"])

# 入力された場合
if user_prompt := st.chat_input():
    # 入力内容の描画
    with st.chat_message("user"):
        st.write(user_prompt)
    # chainをstreamで実行し生成内容をstreamで出力
    with st.chat_message("assistant"):
        response = st.write_stream(chain.stream({"messages": st.session_state.messages, "human_message": [HumanMessage(content=user_prompt)]}))

    # 入力内容と生成内容をsession領域に格納
    st.session_state.messages.append({"role": "user", "content": user_prompt})
    st.session_state.messages.append({"role": "assistant", "content": response})

結構シンプルなプログラムですが、期待通りに動作しました。
上記プログラムの本体はほぼ以下の1行のみです。(ストリーミングで生成してストリーミングで出力させている)

st.write_stream(chain.stream({"messages": st.session_state.messages, "human_message": [HumanMessage(content=user_prompt)]}))

静止画だと分かりませんが、Haikuの爆速でストリーミング出力される様はなかなか壮観です。

image.png

永続化はしていませんが、チャット履歴をセッション上に持っているのでチャットアプリとして機能します。

image.png

30
42
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
30
42