**ファインチューニング(Fine-Tuning)**とは、
すでに学習済みのモデルに対して、追加で特定のデータを使って再学習させることを指します。
簡単に言うと:
**「基礎ができているAIに、特定分野の"しつけ"をする」作業
です。
具体的なイメージ
たとえば:
- ChatGPTのような大規模言語モデル(LLM)は、一般的なインターネット知識で訓練されています。
- でも、ある会社専用の製品情報や社内用語に特化した応答をさせたいとき、その会社のデータを使って追加学習させる。
- こうすることで「一般的な知識+自社専用の知識」を持ったモデルが完成します。
これがファインチューニングです。
ファインチューニングの流れ(ざっくり)
- ベースモデルを用意(例:ChatGPT、BERTなど)
- 追加したいデータを用意(例:FAQデータ、特定ドメインの会話データ)
-
ベースモデルをそのデータで再学習
(全部をゼロから学習し直すわけではなく、すでにある知識をベースに微調整する)
これによって、
- モデルは基本性能を保ちながら
-
特定タスクや特定領域に強くなる
という効果があります。
ファインチューニングとインコンテキスト学習の違い
項目 | ファインチューニング | インコンテキスト学習 |
---|---|---|
学習方法 | モデルのパラメータを更新する | モデルのパラメータは変えない |
必要なもの | 特別なデータセット、計算リソース | 良いプロンプト(入力例) |
効果 | 永続的に知識やタスクが身につく | 一時的にタスクに対応できる |
まとめ
- ファインチューニングは「モデルの再教育」
- 追加データでモデルを特定分野向けに調整できる
- パラメータ自体を変更するので、効果は長期的