1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

インテルの新しい自然言語処理 (NLP) モデル: Polite Guard

Posted at

NLPPoliteGuard.png

概要

インテルが新しく開発したオープンソースの「Polite Guard」は、テキストの分類を目的とした自然言語処理 (NLP) モデルです。BERT をベースにファインチューニングしたこのモデルは、テキストを polite (丁寧)、somewhat polite (やや丁寧)、neutral (中立)、impolite (失礼) の 4 レベルに分類します。モデルのほかに、Hugging Face ではトレーニングに使用されたデータセットが、GitHub ではソースコードが公開されています。

メリット

  • 拡張性の高いモデル開発パイプライン: 独自の合成データを簡単に生成、モデルのファインチューニングをスムーズに実行。
  • 安定性の向上: 悪意ある攻撃に対抗する防御メカニズムを備え、システムの耐障害性を強化。
  • ベンチマークと評価: ポライトネス分類 (礼儀正しさのレベル) の観点からモデルのパフォーマンスを評価、比較。
  • 顧客体験の向上: 多様なプラットフォームにわたり敬意を込めた丁寧なやり取りを徹底することで、顧客の満足度とロイヤリティーを向上。

合成データの生成とファインチューニングのプロセス

Python で作成した合成データ生成モデルをインテル® Xeon® プロセッサーに実装し、顧客サービスの詳細なやり取りをラベル付きサンプルとして出力しました。サンプルには、金融、旅行、食品、小売、スポーツ、文化、人材育成など、さまざまな分野でのやり取りが含まれます。次に、このデータセットを用いてベースとなる BERT モデルをファインチューニングしました。

データが偏らないようにラベルとカテゴリーをランダムに選択し、指定したカテゴリーとラベルに紐づく合成データの生成を言語モデルに指示しています。生成プロセスでは、多角的な視点を考慮して多様なプロンプトを用意し、3 つの大規模言語モデル (Llama 3.1-8B-Instruct、Mixtral 8x7B-Instruct-v0.1、Gemma 2-9B-It) を使用しました。

次に、Optuna で Tree-structured Parzen Estimator (TPE) アルゴリズムを使用して、学習率と重みの減衰についてハイパーパラメーターのチューニングを行っています。これは評価指標の F1 スコアを最大化するためです。また、Optuna のプルーニング機能を使って、性能の低いハイパーパラメーターの試行を早期に停止しています。ハイパーパラメーターの検索スペースと、パフォーマンスの高かったパラメーターについては、Hugging Face で公開しているモデルカードを参照してください。

001.png
図 1. ハイパーパラメーター最適化中の、ハイパーパラメーター (学習率と重みの減衰) とモデルの F1 スコア (目標値) の関係を視覚化した平行座標プロット。各線が試行 1 回を表し、ハイパーパラメーターの組み合わせを変えることでパフォーマンスにどのような影響があるかを示している。

002.png
図 2. Optuna による試行 (0~34) の経過を時間軸に沿って示したタイムライン・プロット。完了した試行と打ち切られた試行が色分けされている。

アクセスと利用方法

  • データセット: Hugging Face にある Polite Guard データセットは、次の 3 つのコンポーネントで構成されています。
    • Few-Shot プロンプトで生成した 50,000 件のラベル付きサンプル。
    • Chain-of-Thought (CoT) プロンプトで生成した 50,000 件のラベル付きサンプル。
    • 個人情報をマスクした企業研修用の 200 件の注釈付きサンプル。

合成データは均等になるように、トレーニング用 (80%)、検証用 (10%)、テスト用 (10%) の各セットに、ラベルごとに分割されています。Polite Guard はこの合成データのみでトレーニングが行われましたが、合成データと実際の注釈付きデータを組み合わせて評価し、92.4% の精度と F1 スコアを達成しました。

次のステップ

Polite Guard を利用すれば、さらに安定性の高い、丁寧な言葉づかいの顧客サービス用 NLP アプリケーションを構築できます。このオープンソース・プロジェクトに協力して、進化を続ける生成 AI をぜひ活用してください。

また、ここで紹介した以外にも、インテルの AI/ML フレームワーク最適化やツールを AI ワークフローに取り入れ、統一されたオープンな標準ベースの oneAPI プログラミング・モデルについて学ぶこともお勧めします。これはインテル® AI ソフトウェア・ポートフォリオの基盤を成すものです。

参照リンク


元記事

著者: Ramya Ravi、Ehssan Khan
所属: インテル
公開日: 2025年2月10日

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?