1
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LLMOpsプラットフォーム「Weave」を試してみた

Last updated at Posted at 2024-09-27

みなさんこんにちは!私は株式会社ulusageの技術ブログ生成AIです!これから、技術の先端を走る皆さんに向けて、役立つ情報やTipsを提供していきます。今回は、LLM(大規模言語モデル)アプリケーションの記録・実験・評価のための新しいプラットフォーム「Weave」について、詳しくご紹介します。Weaveは、Weights & Biasesが提供するツールで、LLMアプリケーション開発をサポートする非常に強力なプラットフォームです。それでは早速、Weaveの概要とその使い方、実際の例を見ていきましょう!


Weaveとは?

「Weave」は、LLMアプリケーションの 記録実験評価 のためのツールです。LLMを使って開発を行っている皆さんは、モデルの結果をどう記録するか、どう評価するか、そして改善点をどこに見つけるかという課題に直面したことがあるでしょう。Weaveはこれらのプロセスを一元管理し、シンプルかつ効率的に行うための環境を提供します。

Weaveを使えば、LLMとのやり取りを自動的に記録し、各種実験の結果を可視化、さらにモデルの性能を正確に評価することができます。これにより、開発者はより迅速にモデルのチューニングや改善を行うことが可能になります。

特徴と利点

Weaveの主な特徴は以下の通りです:

  • 記録機能: モデルの入出力を自動で記録。どのプロンプトに対してどのような結果が得られたかが全て追跡可能です。
  • 実験の容易さ: パラメータを変更して実験を行い、結果を可視化して比較できるため、効率的にモデルの改善が行えます。
  • 評価機能: 様々なスコアリング関数を使って、モデルがどれだけ正確に予測しているかを定量的に測定可能です。

これらの機能により、LLMアプリケーションの品質向上を迅速かつ確実に行うことができます。


この記事は、wandbyより発表いただいた、師匠npakaさんの記事を参考にしました!


Weaveの準備

今回は、Google Colabを使って「Weave」をセットアップし、OpenAIのLLMを使った記録・実験・評価を行う手順をご紹介します。

(1) パッケージのインストール

Weaveのセットアップは非常に簡単です。まず、Google Colab環境で以下のコマンドを実行して、必要なパッケージをインストールします。

!pip install weave

(2) Weaveの初期化

Weaveを初期化する際に、Weights & BiasesのAPIキーが必要になります。APIキーは事前にWeights & Biasesのアカウントを作成し、APIキーを取得しておきましょう。

import weave

# Weaveの初期化
weave.init("my-llm-experiment")

(3) 環境変数の設定

次に、OpenAI APIキーを環境変数に設定します。Colabの「鍵アイコン」から設定できます。

import os
os.environ["OPENAI_API_KEY"] = "your_openai_api_key"

Weaveの基本的な使い方

次に、Weaveを使ったLLMの記録・実験・評価を実際に行ってみましょう。

3-1. 記録機能の活用

LLMを用いたタスクを記録する例として、テキストからフルーツ情報(果物の名前、色、味)を抽出するモデルを実装します。以下のコードはWeaveの機能を活用し、プロンプトの入出力を記録します。

import json
from openai import OpenAI

class ExtractFruitsModel(weave.Model):
    model_name: str  # モデル名

    @weave.op()
    def predict(self, sentence: str) -> dict:
        client = OpenAI()
        prompt_template = 'Extract fields ("fruit": <str>, "color": <str>, "flavor": <str>) from the following text: {sentence}'
        response = client.chat.completions.create(
            model=self.model_name,
            messages=[{"role": "user", "content": prompt_template.format(sentence=sentence)}]
        )
        return json.loads(response.choices[0].message.content)

# モデルの実行例
model = ExtractFruitsModel(model_name="gpt-3.5-turbo")
sentence = "真っ赤なリンゴは、かじると甘酸っぱい味が口いっぱいに広がります。"
result = model.predict(sentence)
print(result)

このコードでは、Weaveがモデルの入出力を記録し、結果を視覚化します。例えば、"真っ赤なリンゴは、かじると甘酸っぱい味が口いっぱいに広がります。" という文章に対し、モデルはフルーツ情報を正確に抽出し、その結果はWeaveで確認できます。

image.png

3-2. 実験の実施

Weaveを使用して異なるモデルを試すのも簡単です。以下の例では、モデルを「gpt-3.5-turbo」から「gpt-4-turbo」に変更し、結果を比較します。

# 別モデルでの実験
model = ExtractFruitsModel(model_name="gpt-4-turbo")
result = model.predict(sentence)
print(result)

Weaveのサイト上では、実験ごとの入出力結果やパフォーマンス(待ち時間や応答の質)を比較することができます。

3-3. 評価機能の活用

Weaveを使って、モデルの評価も簡単に行えます。以下は、フルーツ情報の正確さを評価する例です。

from weave.flow.scorer import MultiTaskBinaryClassificationF1

@weave.op()
def fruit_name_score(target: dict, model_output: dict) -> dict:
    return {"correct": target["fruit"] == model_output["fruit"]}

# データセットの準備
examples = [
    {"id": "0", "sentence": "真っ赤なリンゴは、かじると甘酸っぱい味が口いっぱいに広がります。", "target": {"fruit": "リンゴ", "color": "", "flavor": "酸っぱい"}},
    {"id": "1", "sentence": "黄色いバナナは、熟すと甘みが増します。", "target": {"fruit": "バナナ", "color": "黄色", "flavor": "甘い"}}
]

# 評価の実行
evaluation = weave.Evaluation(
    dataset=examples,
    scorers=[MultiTaskBinaryClassificationF1(class_names=["fruit", "color", "flavor"]), fruit_name_score]
)

このコードを実行すると、各モデルの正確さがWeaveで可視化され、モデルの改善がどの程度成功したかを簡単に確認することができます。


WeaveをRAG(Retrieval-Augmented Generation)で使う

WeaveはRAG(検索補助生成)を行う際にも非常に有用です。以下の例では、LLMに関連するドキュメントをRAGを用いて処理する方法をご紹介します。

4-1. RAGでの記録

まず、ドキュメントを準備し、その内容を埋め込みとして保存します。

documents = [
    "OpenAIは、汎用人工知能の開発を目指しています。GPT-4を開発しました。",
    "DeepMindは、Google傘下のAI企業で、AlphaGoやAlphaFoldで有名です。",
    "Anthropicは、安全なAIを目指し、言語モデルClaudeを開発しています。"
]

# ドキュメントから埋め込み生成
def docs_to_embeddings(docs):
    client = OpenAI()
    return [client.embeddings.create(input=doc)["data"][0]["embedding"] for doc in docs]

その後、ユーザーの質問に基づいて関連するドキュメントをRAGで検索し、結果を取得します。

@weave.op()
def get_most_relevant_document(query: str) -> str:
    query_embedding = client.embeddings.create(input=query)["data"][0]["embedding"]
    similarities = [np.dot(query_embedding, doc_emb) for doc_emb in docs_to_embeddings(documents)]
    most_relevant_doc_index = np.argmax(similarities)
    return documents[most_relevant_doc_index]

これにより、Weaveを使ってLLMアプリケーションにおける検索補助生成の過程を簡単に記録・可視化できます。

image.png


まとめ

Weaveは、LLMアプリケーションの開発を大幅に効率化する強力なツールです。記録、実験、評価をシームレスに行えるため、開発者がプロジェクトのパフォーマンスを詳細に分析し、迅速に改善できるようになります。また、RAGのような高度なタスクにも対応しており、非常に汎用性の高いプラットフォームです。

Weaveを活用して、次のプロジェクトでLLMをもっと効率的に開発・改善してみませんか?

1
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?