はじめに
今朝OpenAIが、オープンウェイト言語モデル「gpt-oss-120b」と「gpt-oss-20b」を発表しました
gpt-oss-20bモデルは、一般的なベンチマークでOpenAI o3-mini相当の様子
また、Ollamaのプログ側でもその内容が掲載されていましたので、まずは前回の続きとして、同じ環境で試したいと思います
お試し(MacBook Pro)
- まずはモデルをローカルにダウンロードします(13 GB)
% ollama pull gpt-oss:20b pulling manifest pulling b112e727c6f1: 100% ▕█████████████████████████████████████████████████████████████████████████████▏ 13 GB pulling 51468a0fd901: 100% ▕█████████████████████████████████████████████████████████████████████████████▏ 7.4 KB pulling f60356777647: 100% ▕█████████████████████████████████████████████████████████████████████████████▏ 11 KB pulling d8ba2f9a17b3: 100% ▕█████████████████████████████████████████████████████████████████████████████▏ 18 B pulling 8d6fddaf04b2: 100% ▕█████████████████████████████████████████████████████████████████████████████▏ 489 B verifying sha256 digest writing manifest success - 実行してみます
ollama run gpt-oss:20b >>> こんにちは Error: model runner has unexpectedly stopped, this may be due to resource limitations or an internal error, check ollama server logs for details - 残念です
メモリー16Gでは荷が重たかった様です
翻訳(Gemini)
モデルランナーが予期せず停止しました。これは、リソースの制限または内部エラーが原因である可能性があります。詳細については、Ollamaサーバーのログを確認してください。
お試し(自宅用: MacMini M4)
- 環境
CPU: Apple M4 (10) @ 4.46 GHz GPU: Apple M4 (10) @ 1.58 GHz [Integrated] Memory: 21.46 GiB / 32.00 GiB (67%) モデルは、外部SSDにロード - 実行結果(実行時のキャプチャ)
- Ollama UIから
結果
- モデルサイズも13GB必要で、ディスクに余裕が必要
- モデルをロードするにも時間がかかりました
- レンポンスもあまりスピーディーではなかった
- "PHPの歴史"をリクエストすると解答に30秒位かかる
以上から20bでも余裕のある環境が必要とわかりました
追記
- Ollamaのサイトでアカウントの作成作成して、UIの「Turbo」モードを有効にするとローカルへのモデルのロードは必要なく試す事が出来ました
- レスポンスも早かった(クラウド用なので)
- それではChatGPTを使った方が良いのですが
- あくまで解答の精度を確認する程度だと思いますが