はじめに
近年、Large Language Models (LLM) は、自然言語処理 (NLP) の分野で革命をもたらしています。これらのモデルは、テキスト生成、文章の理解、言語の翻訳、そして多くの他のタスクで、人間に匹敵するパフォーマンスを発揮しています。しかし、これらのモデルを最大限に活用するためには、深い理解と適切な知識が必要です。
本記事では、LLMの可能性を最大限に引き出すための最新の研究論文9選を紹介します。
LLMを効率よく使うための手法をまとめると以下です。
タスクを細かい手順に分解し、段階的に思考させる(CoT)。次に客観的な視点(Metacognitive Prompting)を持たせ、別モデルで討議させる(Disccusion)。
Chain-of-Thought(CoT)系の手法
CoT(Chain-of-Thought)
論文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Chain-of-Thought(CoT)は論理的な推論の過程を構築する手法です。
ToT(Tree of Thoughts)
論文: Tree of Thoughts: Deliberate Problem Solving with Large Language Models
Tree of Thoughts(ToT)では、推論経路を複数とした木構造から次のステップを探索的に決定します(木構造にすることで深さ優先探索や幅優先探索ができる)。また、必要に応じて先読みや推論ステップの後退を行い、グローバルな(縦横無尽な)推論ステップの選択を行うことも可能な点がToTの特徴です。
AoT(Algorithm of Thoughts)
AoT(Algorithm of Thoughts)はToTの改良手法で、問題をサブの問題に切り分け、深さ優先探索や幅優先探索などのアルゴリズムを有効に使うことで、計算量と時間を削減させる手法です。
サブの問題の解決策を結びつけることでChain-of-Thoughtを形成します。
メタ認知
MP(Metacognitive Prompting)
論文:Metacognitive Prompting Improves Understanding in Large Language Models
MP(Metacognitive Prompting)とはLLMにメタ認知させる手法です。
既存のプロンプティング手法よりも優れた性能を示すことを報告されています。
MPの具体的な手法は以下です。
- テキストを解釈する
- 判断を行う
- 判断を評価する
- 最終的な決定を下し、正当化(理由づけ)を行う
- 自信度を評価する
Chain-of-Thought(COT)とメタ認知の複合
LogiCoT
論文:Enhancing Zero-Shot Chain-of-Thought Reasoning in Large
Language Models through Logic
LogiCoT(Logical Chain-of-Thought)はCoTで推論プロセスを検証し、CoTを論理によって強化した手法です。
以下の図(赤: 間違い、青:検証によりrevise、緑:検証済み)のようにCoTの推論ステップを検証していきます。
既存のCoTでは間違いがあっても修正できませんが、LogiCoTでは改訂することができます。
ディスカッション
同じ種類のLLMのディスカッション
論文: Improving Factuality and Reasoning in Language Models through Multiagent Debate
エージェントを複数用意し、何度も議論させることでより良い結論を導くことを報告されています。
異なる種類のLLMのディスカッション: ReConcile
論文: ReConcile: Round-Table Conference Improves Reasoning via Consensus among Diverse LLMs
ReConcileは、複数ラウンドの議論を行い、他のエージェントを説得して回答を改善することを学習し、信頼度重み付け投票メカニズムを採用することで、LLMの推論能力を向上させる手法です。
実際の使い方は、他モデルの出力をIn-Contextで入力することです。(以下の例ではChatGPT、Bard、Claude2の例)
その他
RE2(Re-reading)
論文:Re-Reading Improves Reasoning in Language Models
LLMに2回質問文を読ませる手法であるRE2が性能が上がることを報告した論文。
RE2はインプットに重点を置き、提供された情報を何度も通過させることで、目の前の問題の理解度を高めています。
またモデルの信頼性を強化し、その出力における特異な異常の影響を受けにくく効果があります。
RE2はCoTと相性が良いことが報告されています。
おわりに
再掲ですが、LLMを効率よく使うための手法をまとめて終わりとします!
タスクを細かい手順に分解し、段階的に思考させる(CoT)。次に客観的な視点(Metacognitive Prompting)を持たせ、別モデルで討議させる(Disccusion)。