20
17

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

お題は不問!Qiita Engineer Festa 2023で記事投稿!

Azure Bot × Teams × Azure OpenAIの環境構築② ~Azure OpenAIの組み込み~

Posted at

まえがき

前回の続きです。Teams × Azure OpenAIでチャットボットを作っていきます。

Prerequisites

(前回までの手順でオウム返しが出来ている前提で話が進みます:bow_tone1:

前回と基本的に必要なものを変わりませんが、今回はAzure OpenAIを使用します。
Azure Portalから作成 & モデルデプロイを済ませておきます。参考

動作イメージと構成

まずは、動作イメージです。(MAX_TOKENSで回答が途切れていますが気にしないでください、、)

image.png

次に今回の構成図です。
下記の図を見てわかる通り、TeamsやAzure OpenAIが登場するからと言って特別構成が難しくなるかと言われるとそうではないです。あくまで私の中のイメージですが、フロントエンド・バックエンドに分けるとなんとなく理解しやすいかと思います。

フロントエンド・バックエンドを分けていますが、AppService(Bot Framework)から直接Azure OpenAIにリクエストを送信することも可能です。その場合、Container Appsは存在しないことになります。今回のこの構成では、今後の拡張機能(チャット履歴の記録やプロンプトの管理、エージェント機能など)を実装することを見越して処理を分けています。

image.png

処理の流れ

  • ユーザがTeamsからメッセージを入力して送信
  • Azure Bot Serviceが受け取り、Bot Frameworkが理解できる形に変換してAppServiceに流す
  • AppServiceはユーザの入力を取り出し、「 Azure OpenAIとやり取りしたいです。 」というリクエストを作成して送信
  • Container Appsがリクエストを受け取り、Azure OpenAIとやり取りする

Azure OpenAIとやり取りした結果は逆方向に経路を辿って最終的にTeamsにたどり着きます。

バックエンド

まずはバックエンドから作成していきます。

image.png

Webサーバを作成

Flaskで適当なWebサーバを立てておきます。下記コードでは大きく2つの機能を提供しています。

  • /api/chatでPOSTリクエストを受け付ける
  • 入力されたメッセージに:)を付与してレスポンスを返す
main.py
from flask import Flask, request, jsonify, Response
from flask_restful import Resource, Api
from flask_cors import CORS
from schemas import (
    ChatRequest,
    ChatResponse,
)

# アプリケーションの設定
app = Flask(__name__)
api = Api(app)
CORS(app)

# APIリソースの定義
class Chat(Resource):
    def post(self):
        # リクエストボディからデータを取得
        req = request.get_json()

        # リクエストの形式を確認
        data = ChatRequest(**req)

        # OpenAIにリクエストを送信
        res = ChatResponse(message=data.message+":)")

        # レスポンスを返却
        return jsonify(res.dict())


# ルーティング設定
api.add_resource(Chat, "/api/chat")


if __name__ == "__main__":
    app.run(debug=True)

リクエストしてみます。
image.png

レスポンスを確認してみます。
image.png

よさそうですね。ここにAzure OpenAIに対してリクエストを投げる処理を追加すれば、ユーザの入力に対してAzure OpenAIを用いて回答する仕組みが実装できます。

Azure OpenAIとWebサーバを繋ぐ

では、Azure OpenAIにリクエストを投げる処理を作成していきます。

Langchainを使用していますが、OpenAI APIにリクエストを投げられればなんでもOKです。
メンテのしやすさや個人的に好きな順序は以下の通りですが、勉強がてらLangchainを使います、、。
「生のOpenAI API > Semantic Kernel > Langchain」

ファイル構成
今回は、以下のような構成としています。

  • main.py: リクエスト・レスポンスをさばくコード
  • modules/openai_client.py: Azure OpenAIとやり取りするためのコード
main.py
import os
from dotenv import load_dotenv
from flask import Flask, request, jsonify
from flask_restful import Resource, Api
from flask_cors import CORS
from schemas import (
    ChatRequest,
    ChatResponse,
)
from modules.openai_client import chatcompletion

load_dotenv()

# アプリケーションの設定
app = Flask(__name__)
api = Api(app)
CORS(app)
app.secret_key = os.getenv("SESSION_KEY")

# APIリソースの定義
class Chat(Resource):
    def post(self):
        # リクエストボディからデータを取得
        req = request.get_json()

        # リクエストの形式を確認
        data = ChatRequest(**req)

        # OpenAIにリクエストを送信
        result = chatcompletion(data.message)
        
        # レスポンスを返却
        res = ChatResponse(message=result)
        return jsonify(res.dict())


# ルーティング設定
api.add_resource(Chat, "/api/chat")


if __name__ == "__main__":
    app.run(debug=True, host='0.0.0.0')

modules/openai_client.py
from langchain.chat_models import AzureChatOpenAI
from langchain.schema import (
    SystemMessage,
    HumanMessage,
    AIMessage,
)

import os
from dotenv import load_dotenv
load_dotenv()

MODEL_MAX_LENGTH = 300
MAX_TOKENS = 100

chat_histroy = []

def chatcompletion(userMessage:str) -> str:
    # LLMの初期化
    chat_llm = AzureChatOpenAI(
        openai_api_type="azure",
        deployment_name=os.getenv("AZURE_OPENAI_DEPLOYMENT_NAME"),
        openai_api_base=os.getenv("OPENAI_API_BASE"),
        openai_api_version=os.getenv("AZURE_OPENAI_API_VERSION"),
    )
   
    # メッセージを初期化
    messages = []

    # ユーザの入力トークン数を先に計算
    user_message = HumanMessage(content=userMessage)
    user_message_length = chat_llm.get_num_tokens_from_messages([user_message])

    # 履歴を反映 (新しい順に入れていく)
    if chat_histroy != []:
        chat_histroy.reverse()
        for chat in chat_histroy:
            messages.append(
                AIMessage(content=chat["ai"])
            )
            messages.append(
                HumanMessage(content=chat["user"])
            )

            # 履歴のトークン数を計算
            log_length = chat_llm.get_num_tokens_from_messages(messages)
            
            # 履歴のトークン数が最大トークン数を超えていたら、履歴を削除
            if log_length + user_message_length > MODEL_MAX_LENGTH - MAX_TOKENS:
                messages = messages[:-2] # 最も古い1ラリー分削除
                break
        
        # システムメッセージを末尾に追加
        messages.append(
            SystemMessage(content="あなたはユーザを助けるアシスタントです。")
        )

        # 古い順に戻す
        messages.reverse()
        print(messages)
    

    # ユーザの入力を追加
    messages.append(user_message)
    
    # 推論実行
    response = chat_llm(
        messages=messages,
        callbacks=[],
        max_tokens=MAX_TOKENS,
    )

    # 履歴に追加
    chat_histroy.append({"user": userMessage, "ai": response.content})
    

    return response.content

やっていることは単純で、「 ユーザの入力を受け取り、Azure OpenAIに投げる 」という処理です。会話履歴の保持をゴニョニョしていますが、今回はTeams×Azure OpenAIのざっくりとした全体像の紹介に留めたいので、触れないでおきます。

では、リクエストを投げてレスポンスを確認してみます。

「リクエスト」
image.png

「レスポンス」
image.png

MAX_TOKENSによって回答が途中が途切れていますがよさそうですね

Container AppsにWebサーバをデプロイする

詳細な説明は割愛しますが、Container AppsというAzureサービス上に先ほど作成したWebサーバをデプロイします。
(詳細が気になる方はGithubのリポジトリをご参照ください。)

  • 先ほど作成したWebサーバのコードを基にDockerイメージを作成
  • Container AppsやAzure Container Registryなどのリソース群を作成
  • Azure Container Registryにイメージをpush
  • Container AppsでWebサーバ起動

上記手順で作成されたContainer AppsをAzure Portal上から確認してみます。

image.png

小さくて見にくいですが、アプリケーションURLにリクエストを送信すればOKです。
リクエストを送信してレスポンスを確認してみます。

「リクエスト:先ほどと同じ内容をContainer Appsに向けて送信」
image.png

「レスポンス」
image.png

ちゃんと返ってきますね、よさそうです。あとは、AppServiceのリクエストの向き先をContainer Appsに変更すれば、Teams → Azure Bot Service → AppService→Container Apps → Azure OpenAIという流れが完成します。

image.png

フロントエンド (Teams SDK)

ソースコード修正

前回作成したものを少しだけ修正します。
前回はオウム返しでしたので、その部分を先ほど作成したバックエンドにリクエストを投げるといった処理に変更します。
これにより、ユーザが入力したメッセージがバックエンド(=Azure OpenAI)にたどり着き、モデルからの返答を得られることになります。
返答をユーザに表示してあげれば、最も単純なTeams × Azure OpenAIのチャットボットが完成しますね。

ファイル構成
今回は以下のような構成としました。バックエンド側と似ていますね。

  • teamsBot.ts: リクエスト・レスポンスをさばくコード
  • api/chat.ts: 実際の処理内容を記述するコード。バックエンドにリクエストを送信する
teamsBot.ts
import {
  TeamsActivityHandler,
  CardFactory,
  TurnContext,
  AdaptiveCardInvokeValue,
  AdaptiveCardInvokeResponse,
  MessageFactory,
} from "botbuilder";
import rawWelcomeCard from "./adaptiveCards/welcome.json";
import rawLearnCard from "./adaptiveCards/learn.json";
import { AdaptiveCards } from "@microsoft/adaptivecards-tools";

//【追記】API呼出し時の型と処理をインポート
import {components} from "./api/types"
type chatRequest = components["schemas"]["ChatRequest"];
import chat from "./api/chat"

export interface DataInterface {
  likeCount: number;
}


export class TeamsBot extends TeamsActivityHandler {
  // record the likeCount
  likeCountObj: { likeCount: number };

  constructor() {
    super();

    this.likeCountObj = { likeCount: 0 };

    this.onMessage(async (context, next) => {
      console.log("Running with Message Activity.");

      let txt = context.activity.text;
      const removedMentionText = TurnContext.removeRecipientMention(context.activity);
      if (removedMentionText) {
        // Remove the line break
        txt = removedMentionText.toLowerCase().replace(/\n|\r/g, "").trim();
      }
      
      //【追記】API呼出し処理
      const req: chatRequest = {
        userId: context.activity.from.id,
        message: txt,
      };
      const data = await chat(req);

      //【追記】ユーザのチャット画面にレスポンスを表示
      await context.sendActivity(MessageFactory.text(data.message))

      // Trigger command by IM text
      switch (txt) {
        case "welcome": {
          const card = AdaptiveCards.declareWithoutData(rawWelcomeCard).render();
          await context.sendActivity({ attachments: [CardFactory.adaptiveCard(card)] });
          break;
        }
        case "learn": {
          this.likeCountObj.likeCount = 0;
          const card = AdaptiveCards.declare<DataInterface>(rawLearnCard).render(this.likeCountObj);
          await context.sendActivity({ attachments: [CardFactory.adaptiveCard(card)] });
          break;
        }
        /**
         * case "yourCommand": {
         *   await context.sendActivity(`Add your response here!`);
         *   break;
         * }
         */
      }

      // By calling next() you ensure that the next BotHandler is run.
      await next();
    });

    this.onMembersAdded(async (context, next) => {
      const membersAdded = context.activity.membersAdded;
      for (let cnt = 0; cnt < membersAdded.length; cnt++) {
        if (membersAdded[cnt].id) {
          const card = AdaptiveCards.declareWithoutData(rawWelcomeCard).render();
          await context.sendActivity({ attachments: [CardFactory.adaptiveCard(card)] });
          break;
        }
      }
      await next();
    });
  }

  // Invoked when an action is taken on an Adaptive Card. The Adaptive Card sends an event to the Bot and this
  // method handles that event.
  async onAdaptiveCardInvoke(
    context: TurnContext,
    invokeValue: AdaptiveCardInvokeValue
  ): Promise<AdaptiveCardInvokeResponse> {
    // The verb "userlike" is sent from the Adaptive Card defined in adaptiveCards/learn.json
    if (invokeValue.action.verb === "userlike") {
      this.likeCountObj.likeCount++;
      const card = AdaptiveCards.declare<DataInterface>(rawLearnCard).render(this.likeCountObj);
      await context.updateActivity({
        type: "message",
        id: context.activity.replyToId,
        attachments: [CardFactory.adaptiveCard(card)],
      });
      return { statusCode: 200, type: undefined, value: undefined };
    }
  }
}

api/chat.ts
// バックエンドのURLを環境変数から取得
const url:string = process.env.BACKEND_URL || "http://127.0.0.1:5000";

// API呼出しの型を定義
import {components} from "./types"

type ChatRequest = components["schemas"]["ChatRequest"];
type ChatResponse = components["schemas"]["ChatResponse"];

// バックエンドにリクエストを投げる関数
export default async function chat(req: ChatRequest): Promise<ChatResponse> {

    // バックエンド(Azure OpenAI)にリクエストを投げる
    const response = await fetch(url + "/api/chat", {
        method: "POST",
        headers: {
        "Content-Type": "application/json",
        },
        body: JSON.stringify(req),
    })
      
    return await response.json(); 
}

フロントエンドとバックエンドを繋ぐ

api/chat.tsでは、環境変数からバックエンドのURLを取得するようにしています。

  • まず、上記のコード群はAppSerivceに置かれています。
  • AppServiceでは環境変数を設定可能です。
  • Container AppsのURLを環境変数に設定します

AppServiceの環境変数にContainer AppsのURLを設定してあげることで、リクエストがContainer Appsに向かうことになります。

image.png

環境変数を設定します。Azure Portal → App Service → 構成 → 新しいアプリケーション設定から、環境変数として「名前:値」を登録できます。ここに以下の環境変数を登録します。

  • 名前:BACKEND_URL
  • 値:Container AppsのアプリケーションURL

image.png

image.png

OK→保存とクリックし、環境変数を反映させます。

Teamsアプリケーションの再デプロイ

ソースコードの修正・環境変数の設定を終えました。再度アプリケーションをデプロイし、動作確認を行います。Teams Toolkitからデプロイを実施します。
image.png

動作確認

Teams ToolkitからPreview Appをクリックし、Teamsをクリックします。
image.png

現在のプロジェクトのmanifest.jsonを選択します。
image.png

サインインを求められるので、サインインします。
image.png

サインイン後、Teamsが立ち上がりアプリケーションの追加画面に遷移します。追加をクリックします。
image.png

追加をクリックすると、先ほど開発したアプリケーションがTeams上に追加されます。
では、質問をしてみます。
image.png

よさそうです。これで以下の図の構成が達成できました。

image.png

まとめ

Teams × Azure Bot Service × Azure OpenAIで簡単なチャットボットを作成してみました。
実際に実装してみると、意外と楽にデプロイまでできるなと感じました。(Teams Toolkitが便利でした)

今回はバックエンド(Container Apps)を挟んでいるので少し複雑になってしまいましたが、
AppServiceから直接Azure OpenAIにリクエストを送信する構成であれば比較的簡単に実装できそうです

また、フロントエンド・バックエンドに分けて考えると、従来通りのWebアプリケーションのようなイメージで開発できそうだなあと思っていました。

今後は以下の機能を追加してきたいですね。

  • ユーザごとの会話履歴を外部データベースで管理
  • TeamsのUIを活かした機能
    • 👍や:no_good:が押された会話を記録 → ユーザのフィードバック代わりにして分析

おまけ

フロントエンド・バックエンドのソースコードをGithubに置いています。

  • フロントエンド

  • バックエンド

20
17
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
20
17

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?