はじめに
この記事は、公式から以下でポストされている「Gemma 3n」を「Ollama」で試した話です。
M4 の Mac mini で Gemma 3n を試した時の様子
M4 の Mac mini で、Ollama を使い Gemma 3n を試した時の様子の動画を先に掲載してみます。
過去に Gemma 3n を試した話
本題に入る前に、過去に Gemma 3n を試した話も少し書いてみます。
Gemma 3n は今年の Google I/O 2025 で発表され、その際に試せるようになっていたものがあったので、自分は以下の API を使った形を試していました。
●【Google I/O 2025】 API の無料枠で Gemini・Gemma の新モデルを試す(Node.js を利用) - Qiita
https://qiita.com/youtoy/items/714a1bd58a80f856663c
今回の内容(2025/6/26付の公式記事をうけての内容)
今回は、2025/6/26付の公式の記事で出た情報をもとに試していきます。
●Introducing Gemma 3n: The developer guide - Google Developers Blog
https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide/
ちなみに上記の記事を受けて、日本語の記事も以下などが出ているようです。
●わずか2GBのメモリ使用量でスマホでの実行もOKな軽量オープンウェイトモデル「Gemma 3n」をGoogleが正式リリース、音声や動画の入力にも対応し日本語ももちろんOK - GIGAZINE
https://gigazine.net/news/20250627-google-gemma-3n-full-release/
実際に試していく
実際に試していきます。
Ollama で試す方法
上で掲載していた公式の記事を見ていくと、下の方に以下の画像の赤矢印で示した部分が出てきます。
モデルの情報
そのリンクを開くと、以下の内容(Ollama で扱える Gemma 3n のモデル一覧)を確認できます。
●gemma3n
https://ollama.com/library/gemma3n
例えば gemma3n:e4b のページを見てみると、冒頭に以下が記載されています。
モデルのサイズは 7.5GB のようなので、自分の環境でも動かせそうです。これを試してみることにします。
自分の環境という話は、この後に書いていきます。
自分の環境
今回、Ollama を試した自分の環境の情報は、以下のとおりです。
まず Windows の PC は、以前記事を書いた時にも使った以下のスペックのものです。
また、もう 1つは Mac で「M4 の Mac mini(メモリ 24GB)」です。
どちらの環境も、以下から最新版の Ollama をダウンロードして、それをインストールした状態にしています(以前試した環境があったので、それをアップデートした形です)。
●Download Ollama on Windows
https://ollama.com/download/windows
●Download Ollama on macOS
https://ollama.com/download/mac
試した結果
先に、試した結果ですんなり成功したものを掲載します。
Windows で「gemma3n:e4b」を使う
Windows で「gemma3n:e4b」を使うための、以下のコマンドを実行しました。
以下が、コマンドをテキストにしたものです。
ollama run gemma3n:e4b
上記を実行した後、プロンプトを入力できる状態になります。そこで、 「生成AIを8歳に分かるように短い言葉で説明して」 というプロンプトを入力しました。
得られた結果
得られた結果は、以下の通りです。
得られた結果をテキストで書き出したものは以下になります。
生成AIはね、たくさんの絵や文章を読んで勉強した、すごいお友達みたいなものなんだ。
何かお願いすると、勉強したことをもとに、新しい絵を描いたり、物語を作ったりしてくれるんだよ!
まるで、君が絵を描く練習をして、どんどん上手になるみたいにね。
でも、まだ完璧じゃないから、たまに面白い間違いをすることもあるんだ!
Mac で試して失敗した状況と対処
Mac でも試したのですが、これは最初は失敗してしまいました。
上記の Windows の時と同様に以下を実行したのですが、その後にエラーが出ました。
ollama run gemma3n:e4b
エラーというのは「Ollama を最新版にするように」というメッセージです。
ちなみに、この時点で既に最新版にしていました。
上記の公式サイトのファイルではなく、念のため GitHub のリポジトリからダウンロードしたものでもインストールを試してもみたのですが、それもだめでした。
Mac で失敗した原因を探っていく
バージョンの話が出ているので、以下でバージョンを確認してみて状況を探ってみました。
ollama -v
そうすると以下のような表示になり、きちんと 0.9.3 を使う構成になってない感じがしました。
Windows でのバージョン確認
特に問題なく処理の実行に成功した、Windows のほうのバージョン表示を見てみます。
上記のとおり、Windows のほうは意図通り 0.9.3 になっていそうです。
問題を解決できた対処方法
もしかしたら、何らか Issue が出ているかと思い、GitHub の Issue を見たり検索をしてみました。
その結果、今回の内容と似た現象に関する Issue が、過去にも出ていたのを見つけました。
●ollama version is 0.5.7 Warning: client version is 0.9.0 · Issue #11023 · ollama/ollama
https://github.com/ollama/ollama/issues/11023
これを見てみました。
解決方法の結論から書くと、以下に書かれているように「プロセス自体を kill して Ollama を再実行する」というものでした(※ 自分は「GUI から Ollama を終了させて再起動」というのを試していたのですが、それではだめなようです)。
このプロセスを確認して kill をするという対応について、自分はかわりに Mac の再起動をするという方法をとって進めました。
その結果、以下のようにモデルのダウンロードを始めることができるようになりました。
そして最終的に、以下のような動作確認も無事に行えました。
【余談】 過去に Ollama を使って試した内容
最後に、過去に Ollama を使って試した内容を掲載してみます。
●M4 の Mac mini で ローカルLLM: Ollama v0.8 の新機能(ストリーミング + ツール)を試す - Qiita
https://qiita.com/youtoy/items/65b794863b8cc0d01d7b
●「node-red-contrib-ollama」を使って Node−RED で Ollama を使ったローカルLLM - Qiita
https://qiita.com/youtoy/items/2b30f6fa3d50490483b4
●Windows でローカルLLM: Ollama で Gemma 3 を軽く試す - Qiita
https://qiita.com/youtoy/items/941491a0d57f1ccf696e
●M4 の Mac mini で ローカルLLM: Ollama で Gemma 3 を軽く試す(テキスト入力、画像も入力するマルチモーダル) - Qiita
https://qiita.com/youtoy/items/d921bfa19794e328c7e1
●Mac mini で ローカルLLM: Ollama で「REST API」とライブラリ「ollama-js」を試す(モデルは Gemma 3) - Qiita
https://qiita.com/youtoy/items/d835920f1bd26dae57fd
気になるものを雑多に試した感じですが、また引き続き、面白そうな内容があったら Ollama を使ったお試しをやっていければと思います。