はじめに
Mac上でGemma 4をローカル実行し、Google Antigravity、VSCode、Chrome、CLIから使う方法を整理しました。
特に「Geminiの利用制限を気にせず使いたい」「ローカルファイルを扱いたい」「機密情報を外に出したくない」という用途を想定しています。
この記事で扱うこと
- Gemma 4の特徴とGeminiとの違い。
- MacでのGemma 4インストール方法。
- Google Antigravity、VSCode、Chrome、CLIからの使い方。
- セキュリティ設定で見直したいポイント。
- MCP Serverの設定方法と、ローカルファイル操作の考え方。
Gemma 4とGeminiの位置づけ
Gemma 4は、ローカル実行やエッジ用途も意識したGoogleのオープンモデル群です。
一方でGeminiは、Googleのクラウドサービスとして提供される高機能なモデル群です。
ざっくり言うと、次のような住み分けになります。
- Gemma 4: 自分のMacで動かす、機密情報を扱う、オフラインでも使いたい。
- Gemini: 高性能なクラウドモデルをそのまま使いたい、Googleサービスとの統合を重視したい。
Gemma 4は小型モデルから大きめのモデルまであり、用途に応じて選べます。
Googleの公式説明では、2B/4Bは軽量用途、26B MoEは高スループット、31Bはローカルとサーバー級の中間に近い位置づけです。
Macでの基本セットアップ
MacでGemma 4を使う場合、最も扱いやすいのはOllamaです。
OllamaのmacOS向けドキュメントでは、MacOS Sonoma以降とApple Siliconが推奨されています。
1. Ollamaをインストール
brew install ollama
または公式サイトからインストーラを使っても構いません。
2. Ollamaを起動
ollama serve
常駐起動したい場合は、環境に応じてサービス化しておくと便利です。
Ollamaのモデルは ~/.ollama に保存されます。
3. Gemma 4を取得
ollama pull gemma4:e4b
軽量モデルを試したいなら、用途に応じて小さいモデルを選ぶのも良いです。
初回はモデルサイズによってダウンロード時間とストレージ消費が大きくなります。
4. 動作確認
ollama run gemma4:e4b
対話モードが開けば、ローカルでGemma 4が動いています。
CLIでの使い方
Gemma 4はCLIでも使えます。
Ollamaを使う場合は、ollama run でそのまま対話できます。
対話CLI
ollama run gemma4:e4b
APIとして使う
OllamaはローカルでOpenAI互換APIとして扱う構成もできます。
そのため、スクリプトや他ツールから http://127.0.0.1:11434/v1 を叩く運用が可能です。
CLI運用のメリットは、次の通りです。
- 余計なUIがいらない。
- 自動化しやすい。
- ローカル完結なので機密情報を扱いやすい。
Google Antigravityで使う
Google Antigravityは、VS Code系のAI開発環境として扱えます。
Gemma 4をAntigravityで使うには、「ChatGPT Copilot」 という拡張機能を使う方法が実用的です。
テレメトリフリー(使用データ収集なし)のオープンソース拡張で、Ollamaを経由したローカルLLMの接続に対応しています。
1. ChatGPT Copilot拡張をインストール
Antigravityの拡張機能マーケットプレイスから「ChatGPT Copilot」を検索してインストールします。
インストール後、左サイドバーの一番下にアイコンが表示されます。
2. アイコンの配置を調整する
初期状態ではサイドバーに表示されますが、ファイルエクスプローラーと排他表示になるため不便です。
アイコンをドラッグして、使いやすい場所に移動しておきましょう。
- パネルのタブとして配置: 画面下部のパネル領域に置くと、標準Chatパネルとタブで切り替えられます。
- 右サイドパネルのタブとして配置: 右側に常時表示したい場合に向いています。
- 下部パネルの左側に配置: チャットパネルを2つ使いたい場合、サブパネルとして中央下のパネルに置くのが便利です。
3. Ollamaとの接続設定
Ollamaを起動した状態で、拡張の「Update settings」から以下の値を設定します。
| 設定項目 | 値 |
|---|---|
| Provider of LLM | OpenAI |
| API key | Ollama |
| Model | custom |
| Custom Model | gemma4:e4b |
| API Base URL | http://localhost:11434/v1 |
設定後、チャット画面でGemma 4が使えるようになります。
4. 主な機能
ChatGPT Copilotは、チャット以外にも以下の機能を持っています。
-
ファイルとの対話 (
@): チャット欄で@を使い、複数ファイルや画像をコンテキストに追加できます。 -
プロンプト・マネージャー (
#): 保存した独自プロンプトを#で検索して呼び出せます。 - コードアシスタンス: コード選択時の右クリックメニューから、生成・修正・最適化・説明などをワンクリックで実行できます。
- MCP連携: MCP Serverを設定すると、ファイルシステムやWeb検索などをエージェントとして自律操作できます。
使い方の考え方
Antigravityは、単にチャットするだけでなく、プロジェクトファイルを読みながら作業を進めるエージェント的な使い方ができます。
ChatGPT Copilot経由でGemma 4を接続すれば、ローカルファイルやプロジェクト内の複数ファイルを横断する作業にも向いています。
VSCodeで使う
VSCodeでは、Continue 拡張を使ってGemma 4を接続する形が実用的です。
この構成にすると、コード補完、コード修正、選択範囲のリファクタリングをローカルで行えます。
1. Continue拡張をインストール
VSCode拡張マーケットプレイスから「Continue」を検索してインストールします。
2. Gemma 4を接続する設定
Continueサイドバーの歯車アイコン → Configs → Local Config を開き、以下のように編集します。
{
"models": [
{
"title": "Gemma 4",
"provider": "ollama",
"model": "gemma4:e4b"
}
]
}
保存後、モデル選択でGemma 4を選べるようになります。
3. 使い方の例
- コード選択 → Chat / Edit でその場で修正。
-
@でエージェント呼び出し。 - コード生成・選択範囲の説明・エラー箇所の修正案出し。
-
tabAutocompleteModelを追加設定すると、コード補完もGemma 4で高速化できます。
GeminiやCopilotの代替というより、「ローカルで回せる補助AI」として考えるのが自然です。
Chromeで使う
Chromeでは、Gemma 4対応の拡張を使うことで、ブラウザ内でローカルAIを活用できます。
記事要約やページ内容の読み取りなど、Web閲覧時の補助に向いています。
Chrome側での利点は、次の通りです。
- ブラウザ上の情報をそのまま扱いやすい。
- ローカルモデルならクラウド送信を避けやすい。
- ちょっとした調査や要約に向く。
Gemma 4は料金プランがあるのか
Gemma 4自体は、Geminiのような利用プランやクレジット制のサービスではありません。
ローカル実行する限り、課金は基本的に発生せず、必要なのは自分のMacの計算資源だけです。
ただし、Google AI StudioのようなクラウドAPI経由で使う場合は、別途APIの利用条件や制限があります。
したがって、完全に無料かどうかは「どこで動かすか」で変わります。
セキュリティで見直したい設定
Gemma 4をローカルで使う場合は、ネットワーク露出を最小化するのが重要です。
特にOllamaのホスト設定は、外部公開しないように注意したいポイントです。
Ollama
-
127.0.0.1で待ち受ける。 -
0.0.0.0で外部公開しない。 - macOSファイアウォールを有効にする。
-
~/.ollamaの権限を適切に保つ。
Antigravity
- 可能ならローカルモデル接続だけにする。
- Googleアカウント連携や送信系の設定を必要最低限にする。
- 機密コードを扱うときは、外部送信前提の機能を避ける。
VSCode / Chrome
- 拡張の権限を確認する。
- 必要以上のサイトアクセスやテレメトリを減らす。
- 機密プロジェクトではワークスペース単位で分離する。
MCP Serverの設定方法
Antigravityやその他のエージェント系ツールでは、MCP Serverを使うと外部機能を拡張できます。
MCP Serverは、ツール群をエージェントに接続するための仕組みです。
代表的な設定方法
1. AntigravityのMCP画面から追加する
MCP Server一覧から、MCP Storeや管理画面を使って追加できます。
ファイルシステム系のMCPや、Git系のMCPを追加すると、ローカルプロジェクトの扱いが楽になります。
2. 設定ファイルを直接編集する
Antigravity系の設定では、MCPサーバー定義をJSONで管理する構成が使われることがあります。
その場合は、mcpServers にサーバー定義を書き足します。
例: Filesystem系MCP
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem"]
}
}
}
例: Ollama連携
{
"mcpServers": {
"ollama": {
"command": "npx",
"args": ["ollama-mcp-server"],
"env": {
"OLLAMA_HOST": "http://127.0.0.1:11434"
}
}
}
}
設定後は、Antigravityを再起動して認識を確認します。
ローカルファイルを横断編集できるのか
はい、できます。
AntigravityのようなエージェントIDEでは、ワークスペース内のファイルを把握し、複数ファイルをまたいだ修正を提案・実行できます。
ただし、重要なのは「モデルが勝手に全部読む」のではなく、
エージェント側がワークスペースやMCP経由でアクセスを制御している点です。
できること
- ファイル一覧の把握。
- 依存関係の確認。
- 複数ファイルの一括修正。
- Git差分の確認と適用。
注意点
- 権限を広くしすぎない。
- 機密ファイルはワークスペースから分ける。
- いきなり全ファイル修正ではなく、段階的に適用する。
使い分けのおすすめ
普段の開発では、次のような使い分けが実用的です。
- Gemma 4: ローカルのコード補助、要約、機密情報を含む作業。
- Gemini: 高度な調査、Googleサービス連携、マルチモーダル処理。
- Antigravity: プロジェクト横断のエージェント作業。
- VSCode: 日々の編集作業。
- Chrome: 調査やページ要約。
まとめ
Gemma 4は、Mac上でローカルに動かせるのが大きな魅力です。
Ollamaを軸にすれば、CLI、VSCode、Chrome、Antigravityのどれにもつなげやすく、機密情報を扱う開発にも向いています。
一方で、Google AntigravityやVSCode、Chromeでの使い方は「どう接続するか」がポイントになります。
MCP ServerやローカルAPIを組み合わせると、Gemma 4をかなり実務的に運用できます。