はじめに
gpt-oss:20BをローカルPCで動作させてみました。
私の環境でも動くことは動いたのですが、あまりスペックの良いPCでな良いので動作は遅かったです。
動作手順をメモとして残しておきます。
マシンスペック
- Mac Book Air
- Apple M4チップ
- 16GB RAM
インストール手順
Homebrewを使ってollamaをインストールします
brew install ollama
ollamaを起動します
ollama start
ollamaを使って、gpt-oss:20bのモデルをインストールします
ollama pull gpt-oss:20b
gpt-oss:20bのモデルがインストールされたことを確認します
ollama list
NAME ID SIZE MODIFIED
gpt-oss:20b aa4295ac10c3 13 GB 3 minutes ago
ollamaを使って、gpt-oss:20bのモデルを実行します。
ollama run gpt-oss:20b
>>> 日本の初代の総理大臣は誰ですか?
Thinking...
We need to answer: Who was Japan's first prime minister? Historically, first Prime Minister was Itō
Hirobumi (伊藤博文) in 1885 (appointed as first Prime Minister of Japan). So answer: 伊藤博文. In
Japanese: Itō Hirobumi. Provide context.
...done thinking.
日本の初代総理大臣は**伊藤博文(Itō Hirobumi)**です。
彼は1885年(大政奉還直後)の内務大臣を兼任して、同年10月に日本初の内閣総理大臣に任命されました。伊藤はその
後も3度にわたり総理大臣を務め、近代日本の政治体制形成に大きく寄与しました。
私の環境ですと、全部のレスポンスが出力されるまで20秒ぐらいかかりました。
※ちなみにgemma3:12bのモデルを利用して同様の質問をした時には4秒ぐらいなので5倍ぐらいかかりました。
終わりに
OpenAI社から発表されたgpt-ossモデルをローカルPCで動かしてみました。
他のローカルLLM同様にOllamaを利用してすぐに検証できるのは良いですね。
もう少し良いマシンを持っている方は、是非試してみて下さい!