はじめに
2025年8月5日、OpenAI は gpt‑oss‑20 b および gpt‑oss‑20 b という2つの「オープンウェイト」推論モデルを公開しました。「gpt‑oss‑20 b」は Apache 2.0 ライセンスの下、完全にオープンな形で提供されており、Hugging Face、Azure、AWS、Ollama、vLLM、Fireworks など複数のプラットフォームでのダウンロードおよび展開が可能です。
またこれらのモデルは、o4-mini で使用されたものと同様のプロセス(教師ありファインチューニングステージと高計算 RL ステージを含む)を使用して事後学習されています。
この記事では、この注目のモデル gpt-oss-20b を実際にローカル環境で動かせるアプリ「LM Studio」で試し、その使用感や導入方法、技術的なポイントを分かりやすくまとめます。
LM Studioセットアップ
LM Studio自体のセットアップはこちらの記事を参照してください。
gpt‑oss‑20b のダウンロード
1-1 赤い四角で囲われているボタンをクリックします。
1-2 openai/gpt-oss-20bを選択(画像は別モデルです)
1-3 赤い四角で囲われているDownload(この画像ではCompleteDownload)をクリック
1-4 チャットに移動してモデルを選択
実際に使ってみる
カットオフは2024年6月なんですね~
最後に
OpenAIが公開したオープンウェイトモデル gpt-oss-20b は、約200億パラメータながら、非常に高性能な言語モデルであるなと感じました。
特に印象的だったのは、思考の流れ(Chain-of-Thought)を含む丁寧な回答や、構造化された応答が得られる点。ChatGPTほどの情報量や深さこそないものの、手元のマシンでここまで動くのかと驚かされました。
大規模GPU環境を必要とせず、比較的手軽に導入できるにもかかわらず、応答品質は非常に高く、アイデア次第でいくらでも活用の幅が広がりそうです。
余談
実は gpt-oss-20b だけでなく、gpt-oss-120b もLM Studio上でチャレンジしてみました。ただ、私の環境(Ryzen 7 5700X / RAM 16GB / RTX 3070 Ti 8GB)ではロードすら非常に重く、実質的に推論は困難でした。
モデルのサイズ自体が膨大で、GGUFファイルであっても60GB以上の容量となるため、最低でもVRAM 24GB以上 or RAM 64GB以上の環境がほぼ必須と感じました。
その意味でも、gpt-oss-20b はローカルAIの「ちょうどいい」選択肢だとあらためて実感しました。