5
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

性格悪いLLMを偶然にfinetuningで作りました。

Posted at

最近LLMのモデルにハマって、いろんなモデルのfinetuningをしています。

昨日すごい面白いモデルを偶然に作りました。
要約機能を強化するモデルを作りたいと思って、論文や記事のデータで、とりあえず10000stepをトレーニングしました。(GPUはv100で25時間)
なぜかモデルの性格がすごい悪くなってしまい、質問(please summarize this article)に対して「時間ないから、他の人に聞いて」といった回答が返ってきます。
1.jpg
(写真には全文が入っていませんが、後半は「You can read the article yourself or ask someone else」という内容です。)
他に「会話を終了したいです、プログラミング以外の質問は、私に聞かないで」みたいな回答もありました。

原因は正直わからないですが、バッチサイズを小さく設定してしまったことが最大の原因ではないかと考えています。
一般的なトレーニング失敗の例としては、同じ内容を繰り返して話すことや、関連ない話(質問を理解できない)をすることなどが挙げられますが、今回の状況は初めてです。

学習データはすべて論文や記事であり、こういった性格になる要素は特に含まれていないと思います。
*100stepごとにモデルを保存していました。lossを見ると、もっとも低かったのは2000ステップの時点だったので、その時のモデルに同じ質問を投げてみたところ、質問を理解できないようで、まったく関係ない話を始めました。なので、この時点のモデルはまだ普通にトレーニング失敗したモデルですね。

わかる方いらっしゃれば、ぜひ教えていただきたいです。
モデルは:Llama2-7bです

5
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?