はじめに
これまで M4 の Mac(以前から Mac mini を使っていて、最近は MacBook Air も利用)でローカルLLM を試す際には、MLX LM・MLX-VLM と Ollama をよく使っています。
Ollama v0.10.0
そんな中、公式のポストで Ollama v0.10.0 のアプリから対話用GUI がついた、という情報を見かけました。
それで今回、GUI を試してみた、というのがこの記事の内容です。
さっそく試す
さっそく試していきます。自分は既に Ollama はインストール済みだったので、インストール済みアプリにアップデートがふってきた、という状況でした。
もしダウンロードをしていない場合は、以下の公式からインストーラーをダウンロードできます。
●Download Ollama
https://ollama.com/download
Ollama の GUI
そして、Ollamaアプリを立ち上げると、対話用の GUI が出てきました。
モデル選択
そして、画面右下にモデルを指定するところがあったので、それを設定しました。
モデルで「gemma3n:e4b」を設定
上記で設定した Ollama用のモデルは、以下の記事を書いた際に既にダウンロード済みだったものです。
●M4 の MacBook Air でローカルLLM: Gemma 3n を MLX-VLM と Ollama で試す - Qiita
https://qiita.com/youtoy/items/c1ea79fb263ef8893df3
具体的には、以下の Gemma 3n のモデル一覧にある「gemma3n:e4b」です。
●gemma3n
https://ollama.com/library/gemma3n
対話を試す
あとは適当にプロンプトを入れてみます。そうすると、以下のように無事に回答を得ることができました。
なお今回試した Mac版では、現状では「日本語入力の変換の確定キー押下などで、内容を送信する操作が行われる」という、他でも起こったりする挙動が見られました。
過去のバージョンで試した時の話
なお、直近で試していた時は、以下のように「 ollama run gemma3n:e4b
をターミナルで実行して、そこから対話モードに入って...」という流れでした。
(余談ですが、過去のお試しでは HTTPリクエストやコードから API で呼んだり、というのも試しています)