はじめに
🎄 本記事は ZOZO Advent Calendar 2024 シリーズ8の15日目です
社内の情報をRAGで読み込み、faq-botとしてLLMを利用するという事例を最近よく見かけます。本記事では、Google CloudのVertex AI Agent Builderを利用して、全自動RAG環境の構築方法をご紹介します!✨
・ 想定読者 :RAGの概要を理解していて、サービス化を検討している方
・ 読んで分かること:Vertex AI Agent Builderを使った自動RAG環境の構築方法
Vertex AI Agent Builderとは?
Vertex AI Agent Builderとは「自然言語またはコードファーストのアプローチを使用して、AIエージェントとアプリケーションを作成」するためのサービスです。
RAG環境やAIエージェントをGUIから簡単に構築でき、更新に関しても自動で行う設定が可能なので、保守や運用のコストを軽減することが可能です。
本記事ではAIエージェントを量産できる体制を整えるため、Python SDKを利用して環境構築を行います。
システムの全体像
今回ご紹介するシステムは大きく分けて以下の2つのフローで構築しています。
- RAG環境の構築:依頼されたタイミングで対応
- AIエージェントによる回答:1番完了後であればいつでも利用可能
社内ドキュメントをConfluence以外で管理している方は、1番のフローを少し置き換えて構築してみてください。
RAG環境の構築方法
構築方法について以下の手順で説明しています。
- Step1:依頼されたスペースの資料をConfluence APIで取得
- Step2:取得したデータをCloud Storageに保存
- Step3:Cloud StorageとVertex AI Agent Builderを連携
📝 Step1:依頼されたスペースの資料をConfluence APIで取得
依頼されたスペースに存在するドキュメントの一覧を取得します。
def request_confluence(url):
# getメソッドでURLに対してGETリクエストを送る
headers = {'Authorization': f'Bearer {os.environ["CONFLUENCE_TOKEN"]}' }
params = {'body': "storage"}
response = requests.get(url, headers=headers, params=params)
# レスポンスをテキスト形式に変換
result = response.text
result_dict = json.loads(result)
return result_dict
def get_chiled_page_id_list(result_dict):
page_id_list = []
# 子ページの一覧を取得
for page in result_dict["results"]:
page_id = page["id"]
page_id_list.append(page_id)
return page_id_list
# 社内のドキュメントに合わせて設定を変更してください
document_page = os.environ["document_page"]
api_url = f"https://{document_page}/wiki/rest/api/content?spaceKey={space_key}&type=page&limit=25&start=0"
id_list = []
while api_url:
result_dict = request_confluence(api_url)
id_list += get_chiled_page_id_list(result_dict)
try:
api_url = f"https://{document_page}/wiki" + result_dict["_links"]["next"]
except KeyError:
api_url = ""
Confluence APIではスペースに存在するページのリストを25個ずつ読み取ることができるため、再帰的な処理によってスペース全体の資料リストを作成します。
次に、作成したリスト内のドキュメントを読み取ります。
def body_read_from_url(url):
# getメソッドでURLに対してGETリクエストを送る
headers = {'Authorization': f'Bearer {os.environ["CONFLUENCE_TOKEN"]}' }
params = {'body': "storage"}
response = requests.get(url, headers=headers, params=params)
# レスポンスをテキスト形式に変換
result = response.text
# BeautifulSoupオブジェクトを作成
soup = BeautifulSoup(result, 'html.parser')
return soup
レスポンスはhtml形式のドキュメントとなっているため、BeautifulSoupオブジェクトに変換し、対象のドキュメントを任意の形式に整形してください。
document_list.append([page_id, html_text])
整形したデータは、page idとドキュメントのペアとしてリストに格納します。
💾 Step2:取得したデータをCloud Storageに保存
作成したドキュメントのリストをCloud Storageに格納していきます。
# GCSに新しいフォルダを作成してJSONLを保存
bucket_name = "hoge"
folder_name = "huga"
client = storage.Client()
bucket = client.get_bucket(bucket_name)
file_list = []
# 新しいフォルダを作成してファイルをアップロード
for document in document_list:
page_id = document[0]
file_path = f"{folder_name}/{page_id}.html"
file_list.append(file_path)
blob = bucket.blob(file_path)
blob.upload_from_string(document[1].encode('utf-8'), content_type='text/html; charset=utf-8')
回答を生成するだけであればpage idの情報は不要なのですが、参考にした資料情報も将来的に使う可能性があるため、保存するファイル名にpage idを使用しています。
🔗 Step3:Cloud StorageとVertex AI Agent Builderを連携
Vertex AI Agent BuilderにおいてVector DBは、「データストア」と呼ばれており、以下のコードではデータストアの作成を行います。
from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine
from google.cloud import storage
import json
def create_data_store(data_store_id):
project_id = "your-project"
location = "global"
client_options = (
ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
if location != "global"
else None
)
# クライアントの作成
client = discoveryengine.DataStoreServiceClient(client_options=client_options)
# コレクション名
parent = client.collection_path(
project=project_id,
location=location,
collection="default_collection",
)
data_store = discoveryengine.DataStore(
display_name=data_store_id,
industry_vertical=discoveryengine.IndustryVertical.GENERIC,
solution_types=[discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH],
content_config=discoveryengine.DataStore.ContentConfig.CONTENT_REQUIRED,
)
request = discoveryengine.CreateDataStoreRequest(
parent=parent,
data_store_id=data_store_id,
data_store=data_store,
)
# リクエストの作成
operation = client.create_data_store(request=request)
print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()
print(response)
return operation.operation.name
DBにデータを格納するためにはテーブルが必要というイメージが分かりやすいと思います。
次に、Cloud Storageに保存したデータをデータストアへ格納します。
from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine
def import_documents_gcs_sample(file_list, data_store_id):
project_id = "your project"
location = "global"
client_options = (
ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
if location != "global"
else None
)
client = discoveryengine.DocumentServiceClient(client_options=client_options)
# e.g. projects/{project}/locations/{location}/dataStores/{data_store_id}/branches/{branch}
collection = "default_collection"
branch = "0"
parent_value = f"projects/{project_id}/locations/{location}/collections/{collection}/dataStores/{data_store_id}/branches/{branch}"
for file in file_list:
gcs_uri = f"gs://{bucket_name}/{file}"
request = discoveryengine.ImportDocumentsRequest(
parent=parent_value,
gcs_source=discoveryengine.GcsSource(
input_uris=[gcs_uri],
data_schema="content",
),
reconciliation_mode=discoveryengine.ImportDocumentsRequest.ReconciliationMode.INCREMENTAL,
)
# リクエストの作成
operation = client.import_documents(request=request)
print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()
# メタデータの取得
metadata = discoveryengine.ImportDocumentsMetadata(operation.metadata)
print(response)
print(metadata)
return
これでVector DBが完成しました。
最後に、作成したデータストアに接続するためのアプリ化を行います。
from typing import List
from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine_v1 as discoveryengine
def create_engine_sample(engine_id, data_store_ids):
project_id = "your-project"
location = "global"
client_options = (
ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
if location != "global"
else None
)
client = discoveryengine.EngineServiceClient(client_options=client_options)
parent = client.collection_path(
project=project_id,
location=location,
collection="default_collection",
)
engine = discoveryengine.Engine(
display_name="Test Engine",
# Options: GENERIC, MEDIA, HEALTHCARE_FHIR
industry_vertical=discoveryengine.IndustryVertical.GENERIC,
# Options: SOLUTION_TYPE_RECOMMENDATION, SOLUTION_TYPE_SEARCH, SOLUTION_TYPE_CHAT, SOLUTION_TYPE_GENERATIVE_CHAT
solution_type=discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH,
# For search apps only
search_engine_config=discoveryengine.Engine.SearchEngineConfig(
search_tier=discoveryengine.SearchTier.SEARCH_TIER_ENTERPRISE,
search_add_ons=[discoveryengine.SearchAddOn.SEARCH_ADD_ON_LLM],
),
data_store_ids=data_store_ids,
)
request = discoveryengine.CreateEngineRequest(
parent=parent,
engine=engine,
engine_id=engine_id,
)
# リクエストの作成
operation = client.create_engine(request=request)
print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()
# メタデータの取得
metadata = discoveryengine.CreateEngineMetadata(operation.metadata)
print(response)
print(metadata)
return operation.operation.name
作成したアプリのIDは次の工程で利用するので控えておきましょう。
AIエージェントによる回答システムの構築
AIエージェントは以下の手順で構築します。
- Step1:Slack Botの作成
- Step2:Vertex AI Agent Builderを用いた回答の生成
Step1は通常のSlack Botと同様の手順になるので、本記事では省略します。
🔗 Step2:Vertex AI Agent Builderを用いた回答の生成
Geminiで回答を生成する際に、先ほどアプリ化したデータストアを参照することが可能です。
from vertexai import generative_models
import vertexai.preview.generative_models as generative_models
from vertexai.generative_models import GenerativeModel, Tool
def ai_agent(user_message):
# AIエージェントの設定を行なってください
system_prompt = f"""あなたは優秀なAIエージェントです。ユーザーからの質問に分かりやすく回答してください。"""
# 先ほど作成したデータストアアプリのIDを入力してください
datastore_id = "projects/your-project/locations/global/collections/default_collection/dataStores/hoge"
tools = [
Tool.from_retrieval(
retrieval=generative_models.grounding.Retrieval(
source=generative_models.grounding.VertexAISearch(datastore=datastore_id),
disable_attribution=False,
)
),
]
model = GenerativeModel(
"gemini-1.5-flash-002",
system_instruction=[
system_prompt,
],
tools=tools,
)
response = model.generate_content(
user_message,
generation_config={
"max_output_tokens": 4000,
"temperature": 0,
"top_p": 1,
"top_k": 32
},
stream=False
)
try:
print(response.candidates[0].content.parts[0].text)
answer = response.candidates[0].content.parts[0].text
except:
print(response)
answer = "もう一度わかりやすく質問してください!"
return answer
datastore_idで先ほど作成したアプリのIDを指定することで、AIエージェントの完成です。
おわりに
本記事では、AIエージェントを量産するための簡単な環境構築方法についてご紹介しました。今回作成したAIエージェントをSlackアプリに組み込むことで、簡単にfaq-botを作成することができるので、皆さんの環境でも是非挑戦してみてください!🎉