12
13

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

LLMをより賢く使うための論文8選[2023年9月最新版]

Posted at

はじめに

近年、Large Language Models (LLM) は、自然言語処理 (NLP) の分野で革命をもたらしています。これらのモデルは、テキスト生成、文章の理解、言語の翻訳、そして多くの他のタスクで、人間に匹敵するパフォーマンスを発揮しています。しかし、これらのモデルを最大限に活用するためには、深い理解と適切な知識が必要です。

本記事では、LLMの可能性を最大限に引き出すための最新の研究論文9選を紹介します。

LLMを効率よく使うための手法をまとめると以下です。

タスクを細かい手順に分解し、段階的に思考させる(CoT)。次に客観的な視点(Metacognitive Prompting)を持たせ、別モデルで討議させる(Disccusion)。

Chain-of-Thought(CoT)系の手法

 2023-10-02 13.30.49.png

CoT(Chain-of-Thought)

論文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Chain-of-Thought(CoT)は論理的な推論の過程を構築する手法です。

ToT(Tree of Thoughts)

論文: Tree of Thoughts: Deliberate Problem Solving with Large Language Models

Tree of Thoughts(ToT)では、推論経路を複数とした木構造から次のステップを探索的に決定します(木構造にすることで深さ優先探索や幅優先探索ができる)。また、必要に応じて先読みや推論ステップの後退を行い、グローバルな(縦横無尽な)推論ステップの選択を行うことも可能な点がToTの特徴です。

AoT(Algorithm of Thoughts)

AoT(Algorithm of Thoughts)はToTの改良手法で、問題をサブの問題に切り分け、深さ優先探索や幅優先探索などのアルゴリズムを有効に使うことで、計算量と時間を削減させる手法です。

サブの問題の解決策を結びつけることでChain-of-Thoughtを形成します。

メタ認知

 MP(Metacognitive Prompting)

論文:Metacognitive Prompting Improves Understanding in Large Language Models

 MP(Metacognitive Prompting)とはLLMにメタ認知させる手法です。
既存のプロンプティング手法よりも優れた性能を示すことを報告されています。

MPの具体的な手法は以下です。

  • テキストを解釈する
  • 判断を行う
  • 判断を評価する
  • 最終的な決定を下し、正当化(理由づけ)を行う
  • 自信度を評価する

 2023-10-02 13.50.15.png

Chain-of-Thought(COT)とメタ認知の複合

LogiCoT

論文:Enhancing Zero-Shot Chain-of-Thought Reasoning in Large
Language Models through Logic

LogiCoT(Logical Chain-of-Thought)はCoTで推論プロセスを検証し、CoTを論理によって強化した手法です。

以下の図(赤: 間違い、青:検証によりrevise、緑:検証済み)のようにCoTの推論ステップを検証していきます。
既存のCoTでは間違いがあっても修正できませんが、LogiCoTでは改訂することができます。

 2023-10-02 14.24.52.png

ディスカッション

同じ種類のLLMのディスカッション

論文: Improving Factuality and Reasoning in Language Models through Multiagent Debate

エージェントを複数用意し、何度も議論させることでより良い結論を導くことを報告されています。

 2023-10-02 13.43.39.png

異なる種類のLLMのディスカッション: ReConcile

論文: ReConcile: Round-Table Conference Improves Reasoning via Consensus among Diverse LLMs

ReConcileは、複数ラウンドの議論を行い、他のエージェントを説得して回答を改善することを学習し、信頼度重み付け投票メカニズムを採用することで、LLMの推論能力を向上させる手法です。

 2023-10-02 13.27.35.png

実際の使い方は、他モデルの出力をIn-Contextで入力することです。(以下の例ではChatGPT、Bard、Claude2の例)
 2023-10-02 13.28.21.png

その他

RE2(Re-reading)

論文:Re-Reading Improves Reasoning in Language Models

LLMに2回質問文を読ませる手法であるRE2が性能が上がることを報告した論文。

使い方は以下でとても簡単です。
 2023-10-02 13.21.31.png

RE2はインプットに重点を置き、提供された情報を何度も通過させることで、目の前の問題の理解度を高めています。
またモデルの信頼性を強化し、その出力における特異な異常の影響を受けにくく効果があります。

RE2はCoTと相性が良いことが報告されています。

おわりに

再掲ですが、LLMを効率よく使うための手法をまとめて終わりとします!

タスクを細かい手順に分解し、段階的に思考させる(CoT)。次に客観的な視点(Metacognitive Prompting)を持たせ、別モデルで討議させる(Disccusion)。

12
13
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
13

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?