どうも、カーブミラーです。
今回は、OpenAIのクリスマスイベントの12日間。今日はその第二日目。内容は、強化ファインチューニング(Reinforcement Fine-Tuning)プログラムです。
本記事は、ChatGPT(Plus版)
で行なっております。画像は
ありません。 あしからず。
ChatGPT等の動作状況を知らせる
OpenAIのステータスページ。
OpenAIステータス
さて、【本題】です。
OpenAIのクリスマスイベントの
第二日目は
強化ファインチューニング
(Reinforcement Fine-Tuning)
プログラムです。
(DeepL翻訳+修正)
今日、私たちは強化ファインチューニングを発表します。これにより、わずかなトレーニングデータで、特定のドメインのエキスパート・モデルを本当に簡単に作成できるようになります。アルファプログラム開始、第1四半期に一般公開予定
感想:
2024年の最大のサプライズのひとつだ。
みんなが何を作るのか楽しみだ!
(DeepL翻訳)
これは、コーディング、科学研究、金融などのドメインにおいて、特定の複雑なタスクのためのエキスパート・モデルを構築することを可能にする、新しいモデル・カスタマイズ・テクニックである。強化ファインチューニング研究プログラムを通じて、研究者、大学、企業へのアルファ・アクセスを拡大します。 募集枠には限りがあります。
(DeepL翻訳)
少量の専門家データを使用して、あなたのドメインのカスタムモデルを構築します。現在アルファ版で、来年第1四半期に発売予定。
詳細は、こちら。
OpenAI公式ページ
「OpenAI's
Reinforcement
Fine-Tuning Research Program」
このページをChatGPTに
読み込ませ、和訳しました。
(GPT-4o)
OpenAIは、特定の複雑で専門的なタスクに優れたモデルを作成するための「強化ファインチューニング研究プログラム」を拡大しています。この手法は、高品質なタスクと参照解答を用いてモデルの応答を評価し、類似の問題に対するモデルの推論方法を強化し、特定の分野での精度を向上させることを目的としています。応募対象者:
このプログラムは、研究機関、大学、企業を対象としており、特に専門家が主導する狭い範囲の複雑なタスクを実行し、AI支援の恩恵を受ける組織を歓迎しています。法務、保険、医療、金融、工学などの分野で有望な結果が得られています。
プログラム内容:
参加者は、ドメイン固有のタスクに対してこの手法をテストするための強化ファインチューニングAPIのアルファ版にアクセスできます。また、公開リリース前にAPIを改善するためのフィードバック提供が求められます。データセットを共有してモデルの改善に協力する組織との連携も積極的に行っています。
興味があり、このプログラムに適しているとお考えの方は、上記のフォームから応募してください。募集枠には限りがあり、応募状況については追って連絡いたします。強化ファインチューニングの一般公開は2025年初頭を予定しています。
こちらの方のポストが
簡潔にまとめられていて
わかりやすかったです。
elvisさんポスト
(GPT-4o和訳)
本日のOpenAIの発表の要約:
- o1モデルの「強化ファインチューニング(RFT)」を導入
- o1を調整することで、新しい方法で推論を行い、特定の分野での応答を改善
- RFTは従来のファインチューニングよりも優れており効率的。少数の例だけで十分な調整が可能
また、
K.Ishiさんのポストも
参考に。
K.Ishiさんポスト
ここでは
o1とo1-miniと
o1-mini(Fine-Tuning)を
比較した折れ線グラフが
載せられています。
その結果は、
o1-mini(Fine-Tuning)が
o1を越えた性能を
示していました。
この強化ファインチューニングの
利用先は、専門分野の特化型o1に
なるのでしょう。
法務、保険、医療、金融、工学などと
あらゆる分野に浸透するかも
しれませんね。
みなさんの
作品制作の糧に
なれば、幸いです。
今回は、ここまで。