3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

新しいオープンウェイト推論モデルopenai/gpt-oss-20bをLM Studioで使ってみた!

Last updated at Posted at 2025-08-07

はじめに

2025年8月5日、OpenAI は gpt‑oss‑20 b および gpt‑oss‑20 b という2つの「オープンウェイト」推論モデルを公開しました。「gpt‑oss‑20 b」は Apache 2.0 ライセンスの下、完全にオープンな形で提供されており、Hugging Face、Azure、AWS、Ollama、vLLM、Fireworks など複数のプラットフォームでのダウンロードおよび展開が可能です。

またこれらのモデルは、o4-mini で使用されたものと同様のプロセス(教師ありファインチューニングステージと高計算 RL ステージを含む)を使用して事後学習されています。

この記事では、この注目のモデル gpt-oss-20b を実際にローカル環境で動かせるアプリ「LM Studio」で試し、その使用感や導入方法、技術的なポイントを分かりやすくまとめます。

LM Studioセットアップ

LM Studio自体のセットアップはこちらの記事を参照してください。

gpt‑oss‑20b のダウンロード

1-1 赤い四角で囲われているボタンをクリックします。

image.png

1-2 openai/gpt-oss-20bを選択(画像は別モデルです)

スクリーンショット 2025-08-07 114230.png

1-3 赤い四角で囲われているDownload(この画像ではCompleteDownload)をクリック

lmst.png

1-4 チャットに移動してモデルを選択

lmst2.png

実際に使ってみる

image.png

このように対話できます。




image.png

カットオフは2024年6月なんですね~

最後に

OpenAIが公開したオープンウェイトモデル gpt-oss-20b は、約200億パラメータながら、非常に高性能な言語モデルであるなと感じました。

特に印象的だったのは、思考の流れ(Chain-of-Thought)を含む丁寧な回答や、構造化された応答が得られる点。ChatGPTほどの情報量や深さこそないものの、手元のマシンでここまで動くのかと驚かされました。

大規模GPU環境を必要とせず、比較的手軽に導入できるにもかかわらず、応答品質は非常に高く、アイデア次第でいくらでも活用の幅が広がりそうです。

余談

実は gpt-oss-20b だけでなく、gpt-oss-120b もLM Studio上でチャレンジしてみました。ただ、私の環境(Ryzen 7 5700X / RAM 16GB / RTX 3070 Ti 8GB)ではロードすら非常に重く、実質的に推論は困難でした。

モデルのサイズ自体が膨大で、GGUFファイルであっても60GB以上の容量となるため、最低でもVRAM 24GB以上 or RAM 64GB以上の環境がほぼ必須と感じました。

その意味でも、gpt-oss-20b はローカルAIの「ちょうどいい」選択肢だとあらためて実感しました。

3
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?