Introducing OpenAI o1 | OpenAIの翻訳です。
本書は著者が手動で翻訳したものであり内容の正確性を保証するものではありません。正確な内容に関しては原文を参照ください。
困難な問題を解決するための理由づけモデルの新たなシリーズ。9/12から利用可能に。
我々は、レスポンスする前により多くの時間を費やすように設計された、新たなAIモデルシリーズを開発しました。これらは、サイエンス、コーディング、数学において、以前のモデルよりも複雑なタスクを通じた理由づけを行い、より困難な問題を解決することができます。
本日、ChatGPTと我々のAPIにおいて、このシリーズの最初のモデルをリリースします。これはプレビューであり、定期的なアップデートと改善を行う予定です。このリリースに伴い、次回のアップデートでは現在開発中の評価結果を含める予定です。
動作原理
我々は、人々が行うのと同じように、これらのモデルがレスポンスをする前に問題を通じて検討することにより時間を費やすようにトレーニングしました。トレーニングを通じて、検討のプロセスを改善するために学習を行い。異なる戦略を試し、自身の間違いを認識します。
我々のテストにおいては、次のモデルアップデートは、物理、化学、生化学における困難なベンチマークタスクにおけるPhD学生と同様のパフォーマンスを示すことになります。International Mathematics Olympiad (IMO)の資格試験において、GPT-4oは問題の13%のみを適切に回答できましたが、この理由づけモデルは83%のスコアを出しました。これらのコーディング能力はコンテストで評価され、Codeforcesのコンペティションで、89thパーセンタイルに到達しました。こちらの技術的な研究記事でより詳細を読むことができます。
初期のモデルと同様に、このモデルは、ChatGPTを有用なものにした、情報取得のためにWebをブラウジングしたり、ファイルや画像のアップロードののような機能の多くはまだ実装していません。短期的には、多くの一般的なケースにおいては、GPT-4oの方が優れて能力を有していると言えます。
しかし、複雑な理由づけのタスクにおいては、これは大きな進歩であり、AIの能力の新たなレベルを表現しています。これによって、我々はカウントを1にリセットして、このシリーズをOpenAI o1と名付けています。
安全性
これらの新たなモデルの開発の一部として、これらの理由づけの能力が安全性、アライメントのガイドラインに準拠するように強化する新たな安全性トレーニングアプローチを発案しました。コンテキストにおいて我々の安全性ルールに関して理由づけできるようにすることで、より効果的にそれらを適用できるようになります。
安全性を計測する手法の一つは、ユーザーが安全性ルールをバイパス(ジェイルブレークと呼ばれるものです)しようとした際においても、どれだけモデルが安全性ルールに準拠しようとし続けるのかをテストするというものです。我々の最も困難なジェイルブレークテストの一つにおいて、GPT-4oは(0-100のスケールで)22のスコアを出しましたが、o1-previewモデルは84のスコアを出しました。こちらのシステムカードや研究記事でより詳細を確認することができます。
これらのモデルの新たな能力にマッチするように、我々の安全性の取り組み、内部のガバナンス、政府とのコラボレーションを強化しました。これには、我々の安全性&セキュリティコミッティーによって定義された、我々の準備状況フレームワーク、最高クラスのレッドチーム、経営レベルのレビュープロセスを用いた厳密なテストや評価が含まれています。
AIの安全性に対するコミットメントを推し進めるために、最近ではアメリカとイギリスのAI安全性機関との合意形成を正式なものにしました。このモデルの研究バージョンに対する機関への早期アクセスを含め、これらの合意の正式運用を開始しています。これは、モデルの事前あるいは事後の研究、評価、テストのプロセスの確立の助けとなる、我々のパートナーシップにおける重要な最初のステップとなりました。
誰のためのものか
これらの強化された理由づけの能力は、あなたがサイエンス、コーディング、数学、類似の領域に取り組んでいる際には特に有用なものになるかもしれません。例えば、o1はヘルスケアの研究者が細胞のシーケンスデータに注釈を加えたり、物理学者が量子光学に必要な複雑な数式を生成したり、すべての領域の開発者がマルチステップのワークローを構築、実行するために活用することができます。