本日、MicrosoftはMetaとの新たなパートナーシップを発表し、商用および研究目的の両方を目指した次世代の大規模言語モデル「Llama 2」をリリースすることを発表しました。
バリエーション
Llama 2は、3つのバリエーションで展開され、それぞれ7Bから70Bのパラメータを持っています。これらのモデルは2兆個のトークンで学習されており、Llama 1よりも2倍のコンテキスト長を持っています。また、これらのモデルは100万以上の人間のアノテーションで微調整されています。
ベンチマーク
Llama 2は推論力、コーディング、熟達度、知識テストなど、多くの外部ベンチマークにおいて他のオープンソース言語モデルを上回っています。
モデル
Llama 2モデルは2兆トークンで学習されており、Llama 1のコンテキスト長は2倍になっています。さらに、Llama-2-chatモデルは100万以上の新しい人間のアノテーションで学習されています。
Llama-2-chatは、安全性と有用性を確保するために、人間のフィードバックから強化学習を使用しています。Llama-2-chatのトレーニング:Llama 2は公に利用可能なオンラインデータを使用して事前に学習されます。その後、教師あり微調整を使用して、Llama-2-chatの初期バージョンが作成されます。次に、Reinforcement Learning from Human Feedback(RLHF)を用いてLlama-2-chatが反復的に洗練されます。これには、棄却サンプリングと近接方策最適化(PPO)が含まれます。
モデルのダウンロード:
https://ai.meta.com/resources/models-and-libraries/llama-downloads/