3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

言語処理学会2024論文紹介/「RAGにおけるLLMの学習と評価:FAQタスクへの応用」

Last updated at Posted at 2024-03-28

【一言で言うと】
FAQタスクのRAG運用において、LLMのfine-tuningの有用性を調査した

【タイトル/URL】
「RAGにおけるLLMの学習と評価:FAQタスクへの応用」
https://www.anlp.jp/proceedings/annual_meeting/2024/pdf_dir/P5-5.pdf

【まとめ】
この論文ではAmebaブログのヘルプページにあるFAQデータをQuestion Generationを用いて拡張し,手作業で回答を作成。さらに問題の難しさを関連文章の出現によってeasyとhardに分類という非常に大変な手作業でデータセットを作成している
このデータセットに対してGPT-4やELYZAなどの9個のモデルで評価を行った
評価指標はRagasのAnswer relevancyとBERT scoreを使用

【感想】
驚いたことに,表1ではほとんどのスコアでRAG>LoRAとなっている。問題によってはfine tuningに匹敵する性能向上をRAGで達成できると言うことなので,計算資源のない組織にとってはありがたい結論

【画像】
表1.png

3
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?