Gemma 4 徹底解説:Googleのオープンモデル最新版で何ができるのか
この記事を読むと:Google DeepMindが2026年4月2日にリリースした「Gemma 4」の全体像・技術仕様・応用の可能性がわかります。初心者から上級者まで、自分のレベルに合ったセクションから読み始められます。
はじめに
2026年4月2日、Google DeepMindは**Googleのオープンモデルシリーズの最新版である「Gemma 4」**をリリースしました。
Gemmaシリーズはこれまでに全世界で4億回以上ダウンロードされ、コミュニティが作った派生モデルは10万種類以上に達しています。今回の第4世代は、「パラメータあたりの知性」で過去最高を達成し、しかもApache 2.0ライセンス(商用利用も自由な、制約の少ないオープンソースライセンス)で公開されました。
この記事では、公式ブログ・モデルカード・技術報告書などの一次情報をもとに、Gemma 4の概要から技術的な深掘りまでを3段階のレベルに分けて解説します。
Gemma 4 とは
Gemma 4は、Google DeepMindが開発したオープンな大規模言語モデル(LLM)のファミリーです。同社の最上位モデルであるGemini 3と同じ研究技術から生まれており、その能力をオープンモデルとして開発者や研究者に広く提供するものです。
4つのサイズで提供されています:
| モデル名 | パラメータ規模 | 推論時の実効パラメータ | コンテキスト長 | 特徴 |
|---|---|---|---|---|
| E2B | 5.1B(総パラメータ) | 約2B(実効) | 128Kトークン | スマートフォン・IoT向け、音声入力対応 |
| E4B | 8.0B(総パラメータ) | 約4.5B(実効) | 128Kトークン | エッジデバイス向け、音声入力対応 |
| 26B MoE | 25.2B | 約3.8B(実効) | 256Kトークン | Mixture of Experts、低レイテンシ重視 |
| 31B Dense | 30.7B | 30.7B(全パラメータ使用) | 256Kトークン | 最高品質、ファインチューニングに最適 |
🔰 初心者向け:はじめて「Gemma 4」を知る方へ
ここまで読んでくれたあなたは、すでにAIの最新動向に関心を持っている素晴らしい方です。
そもそもGemmaって何?
「Gemma(ジェマ)」は、Googleが無料で公開しているAIモデルのシリーズ名です。スマートフォンのGoogleアシスタントや、Google検索の裏側で使われている技術の「弟分」のようなものだと思ってください。
GoogleにはGemini(ジェミナイ)という最上位のAIモデルがあります。Geminiは非常に高性能ですが、Googleのサーバー上でしか使えません。一方Gemmaは、あなた自身のパソコンやスマートフォンでも動かせるように設計されています。
何がすごいの?
たとえるなら、以前は「巨大な発電所(クラウドサーバー)」でしか動かせなかったAIが、「ポータブル充電器(スマホやPC)」でも同じくらい賢く動くようになった、というイメージです。
しかも、Androidスマートフォンに今後搭載されるGemini Nano 4(Googleのスマホ向けAI)の基盤として正式採用されているため、将来のAndroidアプリの「賢さ」の裏側にはGemma 4の技術が使われることになります。
Gemma 4の特徴をひとことで言えば:
- 無料で使える:Apache 2.0ライセンスなので、個人でも企業でも自由に使えます
- 自分のPCで動く:インターネットに繋がなくても使えます(オフライン動作可能)
- 画像も音声も理解する:文章だけでなく、写真や動画、音声も処理できます。小型モデル(E2B/E4B)は最大30秒の音声をリアルタイムで文字起こし・翻訳できます
- 140以上の言語に対応:もちろん日本語もサポートされています
- 自分で考えてから答える:「思考モード」により、複雑な質問にも段階的に考えてから回答できます
まだ触ったことがなくても大丈夫
「AI」「モデル」「パラメータ」――聞き慣れない言葉がたくさん出てきますが、ここでは「AIモデル=ものすごく賢い翻訳・要約・作文マシン」くらいのイメージで十分です。重要なのは、こうした最新技術が誰でも無料で使えるようになったということです。
ここまで読んでいるあなたは、もう一歩先を行っています。
🔧 中級者向け:実務で使いたい方へ
この段階まで興味を持って読み進めている方は、実際にモデルを動かす力をお持ちです。
アーキテクチャの要点
Gemma 4は、以下の技術的特徴を組み合わせた設計になっています:
交互アテンション構造(Alternating Attention)とDual RoPE:ローカルスライディングウィンドウアテンション(512〜1024トークン)とグローバルフルコンテキストアテンションを交互に配置しています。さらに、位置エンコーディングも二重化されており、ローカル層には標準的なRoPE(Rotary Position Embeddings)、グローバル層にはコンテキスト長に応じて動的にスケールする比例的RoPE(p-RoPE)が使い分けられています。この「Dual RoPE」構成により、256Kトークンという長大なコンテキストでも文脈の最初から最後まで一貫した推論品質が維持されます。
Per-Layer Embeddings(PLE):E2BやE4Bモデルで採用されている革新技術です。通常のLLMでは入力トークンは最初に一度だけ埋め込みベクトルに変換されますが、PLEでは各デコーダ層が個別の小さな埋め込みテーブルを保持し、トークンIDに基づく「レイヤー固有の残差シグナル」を直接ルックアップして統合します。この仕組みは追加の計算層を重ねるのではなく、フラッシュメモリへの高速な静的ルックアップに依存するため、計算量の増加を最小限に抑えつつ表現力を劇的に向上させます。結果として、実効2.3Bパラメータのモデルが総パラメータ5.1Bの表現力を持ち、量子化すると1.5GB未満のメモリで動作します。
Shared KV Cache(共有KVキャッシュ):モデル終盤の複数レイヤーで、キー(Key)とバリュー(Value)のテンソル状態を以前のレイヤーから再利用する仕組みです。これにより、長文コンテキスト生成時のKVキャッシュメモリが大幅に削減されます。推論フレームワークのvLLM等はこのKV共有レイヤーを自動認識し、メモリの冗長な割り当てをバイパスするよう最適化されています。
Mixture of Experts(MoE):26Bモデルでは128個の小規模エキスパートのうち、8個+1個の共有エキスパートをトークンごとに選択的に活性化します。推論時に動くパラメータは約3.8Bだけなので、高速な応答が可能です。
ビジョン・音声エンジンの詳細
Gemma 4のマルチモーダル機能は「後付け」ではなく、最初からネイティブに組み込まれた設計です。
ビジョンエンコーダ:小型モデル(E2B/E4B)には約150Mパラメータ、大型モデル(26B/31B)には約550Mパラメータのエンコーダが搭載されています。従来のSigLIPモデルからMobileNet-v5ベースへ移行し、可変アスペクト比を維持したまま画像特徴を直接抽出します。画像の複雑さに応じて入力トークン数を70〜1120の間で設定でき、高解像度の医療画像解析には高いトークン予算を、単純な物体認識にはトークン予算を絞るといった制御が可能です。
音声エンジン:E2B/E4Bモデルには約300MパラメータのUSM(Universal Speech Model)スタイルのConformerアーキテクチャが内蔵されており、外部のSpeech-to-Textモデルを経由せずに最大30秒の音声を直接処理できます。
動画処理:26Bおよび31Bモデルは、フレームシーケンスとして最大60秒の動画(1fps処理)をネイティブに処理できます。
実際に動かしてみる
Gemma 4はリリース初日から主要な推論エンジンに対応しています。
Ollamaで試す場合(最も手軽):
# Ollamaをインストール後
ollama pull gemma4
ollama run gemma4
llama.cppで動かす場合:
Q4_K_M量子化を使えば、26B MoEモデルが24GBのGPU(RTX 4090等)で動作します。NVIDIA GeForce RTX 5090では、31B Denseモデルも量子化ありで動作可能です。
Hugging Face Transformersで動かす場合:
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "google/gemma-4-31B-it"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto")
messages = [{"role": "user", "content": "Gemma 4について教えてください"}]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device)
outputs = model.generate(inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0]))
推奨サンプリング設定:temperature=1.0、top_p=0.95、top_k=64(NVIDIA NIMモデルカードに記載)
Agent Development Kit(ADK)によるエージェント構築
Gemma 4の最大の進化ポイントの一つが、「チャットボット」から「自律的にタスクを遂行するエージェント」への転換です。Googleはこれを支援するオープンソースフレームワーク**Agent Development Kit(ADK)**を同時公開しました。
ADKの革新的な仕組みが「Progressive Disclosure(段階的開示)」です。従来のエージェント開発では、すべての知識を巨大なシステムプロンプトに詰め込む必要がありましたが、ADKではエージェントの機能を「スキル」と呼ばれるモジュールに分割し、3段階で管理します:
- L1(メタデータ、約100トークン):スキルの名前と説明のみ。起動時にメニューとしてロード
- L2(指示、5,000トークン未満推奨):タスク実行に必要な詳細手順。必要時のみ動的にロード
- L3(リソース):外部参照ファイルやAPI仕様書。さらに詳細が必要な場合のみ追加ロード
これにより、コンテキスト使用量を最大約90%削減しながら、必要な知識をオンデマンドで引き出すことが可能です。
さらに、ADKには「Skill Factory」という自己拡張機能があります。エージェントが仕様書を読み込んで「新しいスキルを自分で作る」能力を持ち、例えば「Pythonコードのセキュリティレビュースキルが必要」と要求すると、エージェント自身がスキルを生成して即座に使用を開始します。
ネイティブ関数呼び出し(Function Calling)
Gemma 4はすべてのモデルサイズでネイティブ関数呼び出しに対応しています。ツールのJSONスキーマを定義すると、モデルが構造化されたツールコールを自動生成します。これにより、外部API連携やエージェントワークフローの構築が容易になります。
思考モード(Thinking Mode)
<|think|>トークンをシステムプロンプトに含めると、モデルが回答前に段階的な推論(Chain-of-Thought)を出力します。推論プロセスは<|channel>thoughtタグで構造化されるため、アプリケーション側で推論過程と最終回答を分離して処理できます。この明示的な推論フェーズにより、複雑な数学的問題や金融データ分析、マルチステップのロジック構築において、ハルシネーション(もっともらしい嘘)を大幅に減少させます。
この段階まで理解できている方は、現場で即戦力です。
🚀 上級者向け:深く理解したい方へ
ここまで読み込んでいる方は、この分野のリーダーになれる方です。
ベンチマークの詳細分析
Gemma 4のフラッグシップ31Bモデルと、エッジ最適化E2Bモデルの性能を比較すると、アーキテクチャの効率性が明確に見えてきます:
| ベンチマーク | Gemma 4 31B | Gemma 4 E2B | 備考 |
|---|---|---|---|
| MMLU Pro | 85.2% | 60.0% | 汎用知識・推論 |
| AIME 2026 | 89.2% | 37.5% | 高度な数学推論(外部ツールなし) |
| GPQA Diamond | 84.3% | 43.4% | 大学院レベルの専門知識 |
| Vision MMMU Pro | 76.9% | 44.2% | マルチモーダル理解・視覚推論 |
| Codeforces ELO | 2150 | 633 | プログラミング・アルゴリズム競技力 |
| BigBench Extra Hard | 74.4% | ― | 難問推論(Gemma 3は19.3%) |
| LMArena ELO(テキスト) | 約1452 | ― | オープンモデル世界第3位 |
E2Bモデルは実効パラメータわずか2.3Bにもかかわらず、MMLU Proで60%という堅実な汎用知識を示しており、エッジモデルとしては破格の性能です。コミュニティの独自検証では、量子化E2B(4bit)の思考モード活用により、同規模のQwen 4BやNemotron Nano 4BといったSOTAモデルを上回るケースも報告されています。
26B MoEモデルはLMArenaスコア約1441を達成しており、実効パラメータわずか3.8Bでオープンモデル世界第6位にランクインしています。パラメータ数が20倍のモデルを上回るケースもあり、「パラメータ効率」という観点で極めて優れた設計であることがわかります。
競合モデルとの定量的比較
MetaのLlama 4 Maverickは総パラメータ400B、アクティブパラメータ17BのMoEアーキテクチャで、MMLUスコア85.5%を記録しています。しかしGemma 4 31Bは総パラメータ数がMaverickの1/10以下(30.7B)でありながら、MMLU ProやAIMEタスクにおいて同等かそれ以上のスコアを達成しており、パラメータ密度と学習効率の高さを示しています。
Mistral系モデルとの比較では、純粋なテキスト生成や要約タスクにおける推論速度ではMistralがリードする場面もありますが、Gemma 4は関数呼び出しを伴うAgenticワークフロー、QAタスク、構造化出力における正確性とアライメント(指令への忠実性)で一貫して上回っており、エンタープライズ向けの安定稼働で高く評価されています。
Gemmaシリーズの系譜と技術的進化
Gemmaシリーズの技術的発展を振り返ると:
- Gemma 1(2024年3月):2Bと7Bの2サイズ。テキスト専用。Gemini 1の研究技術に基づく。arXiv: 2403.08295
- Gemma 2(2024年後半):性能向上と効率化
- Gemma 3(2025年3月):マルチモーダル対応(画像理解)、128Kコンテキスト、ローカル/グローバルアテンション交互配置によるKVキャッシュ最適化。蒸留(distillation)による訓練。arXiv: 2503.19786
- Gemma 4(2026年4月):Gemini 3の研究技術に基づく。MoE導入、音声入力対応(E2B/E4B)、256Kコンテキスト(大型モデル)、Apache 2.0ライセンスへの変更、ネイティブ関数呼び出し
MoEアーキテクチャの設計思想
26Bモデルの128エキスパート構成は、パラメータ数と実効計算量のバランスを最適化する設計です。トークンごとに8+1(共有)エキスパートを選択することで、推論コストを密結合(Dense)モデルの約12%に抑えながら、密結合モデルの約97%の品質を維持しています。
この設計は、エッジデバイスからクラウドまでの幅広いデプロイメントシナリオを一つのモデルファミリーでカバーするという戦略的判断を反映しています。
訓練データとカットオフ
NVIDIA NIMモデルカードによると、訓練データのカットオフは2025年1月で、Webドキュメント、コード、画像、音声を含む大規模マルチモーダルデータで事前学習されています。140以上の言語をカバーし、CSAM(児童性的虐待素材)、センシティブデータ、品質、安全性に関するフィルタリングが適用されています。
推論インフラの技術的詳細(vLLM / DGXでの運用)
大規模運用環境では注意すべき技術的ポイントがあります。Gemma 4はローカルアテンション層(head_dim=256)とグローバルアテンション層(head_dim=512)で異なるヘッド次元を持つため、vLLMは自動的にTritonアテンションバックエンドを強制します。--gpu-memory-utilization 0.70を設定し、FP8量子化されたKVキャッシュとMoEアーキテクチャを組み合わせることで、256Kワークロードでも効率的なサービングが可能です。26B A4Bモデルの場合、重み自体は約86GBですが、Shared KV Cache設計により利用可能なメモリ予算内に大規模コンテキストを収容できます。
安全性評価
モデルカードによると、テキスト→テキストおよび画像→テキストの双方で、すべてのモデルサイズにおいて安全フィルタなしの状態でもポリシー違反は最小限であり、以前のGemmaモデルから大幅に改善されたとのことです。ただし、自動評価と人間による評価の両方が実施されていますが、評価データセットやプロパティの詳細は「Undisclosed(非公開)」と記載されています。
ここまで読み込んでいる方は、この分野のリーダーになれます。
応用の可能性
Gemma 4の「Apache 2.0による完全オープン化」「強力な推論能力とADKの統合」「マルチモーダルおよびエッジへの最適化」の組み合わせは、従来のクラウドベースAIの枠組みを超えた応用を可能にしています。
データソブリンティー(データ主権)とエンタープライズAI
金融機関、政府機関、防衛産業など、データの社外流出が厳格に禁じられている環境では、外部のクラウドLLM APIはセキュリティ上の大きな障壁でした。Gemma 4はこの課題を根本的に解決します。
企業はGoogle CloudのSovereign Cloud環境や、完全にインターネットから隔離(エアギャップ)された自社オンプレミスサーバーにGemma 4をデプロイし、社内データベースと連携したRAG(Retrieval-Augmented Generation)システムを構築できます。各国のデータレジデンシー法規制を完全に遵守しつつ、プロプライエタリAPIの従量課金を回避し、最高峰の推論機能を享受できるのです。
医療DXへの応用(MedGemma)
医療分野では、GoogleのHealth AI Developer Foundations(HAI-DEF)プロジェクトの一部として、Gemmaアーキテクチャをベースに医療テキストや高次元医療画像(CTスキャン、MRI、全波長組織病理画像など)の理解に特化してファインチューニングされたMedGemma(arXiv: 2507.05201)が展開されています。
MedGemmaは、患者のプライバシーが最優先される臨床現場において、インターネット接続不要のオフライン環境で稼働する医療支援ツールとして設計されています。MedGemma 1.5 4Bの画像エンコーダは、標準の896×896解像度に加え、計算効率の高い448×448解像度モデル(MedSigLIP)としても提供されており、限られた計算リソースでの運用をサポートしています。
Gemma 4の長文コンテキスト(256K)は、患者の膨大な電子カルテ(EHR)やFHIR標準データを一括で読み込むエージェントの構築に極めて有用です。Kaggle上の「MedGemma Impact Challenge」を通じて、時系列の胸部X線画像の経年変化追跡や、複雑な医療文書からの構造化データ抽出など、人間中心のAIアプリケーション開発が加速しています。
ただし、医療AIの開発には薬機法(医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律)やSaMD(Software as a Medical Device)に関する規制への適合が必要です。「V-modelに基づくユニット・システム双方のレベルでの反復的なテストと検証が不可欠」であることがNVIDIAのモデルカードにも明記されています。
エッジAI・IoT・モバイル
Raspberry Pi 5上でE2Bモデルが133トークン/秒のプリフィル速度、7.6トークン/秒のデコード速度を達成しています(Google Developers Blog記載)。この性能は、スマートホームコントローラーや音声アシスタント、ロボティクスを完全オフラインで動作させるのに十分です。
AndroidスマートフォンではE2Bモデルが前世代と比較して最大4倍の推論速度を達成し、最大60%のバッテリー消費削減を実現しています。Qualcomm、MediaTek、Google(Tensor)のAIアクセラレータ(NPU/TPU)に最適化されており、リアルタイム音声翻訳やOCRが完全オフラインで完結します。
開発者向けには「AI Edge Gallery」アプリが提供されており、カメラ入力での物体認識・視覚パズル解析(Ask Image)、リアルタイム文字起こし・翻訳(Audio Scribe)、パラメータ調整しながらのプロンプト検証(Prompt Lab)をモバイル端末上で直接体験できます。
ローカルファーストな自律型ソフトウェアエンジニアリング
Codeforcesベンチマークでのスコア向上が示すように、Gemma 4はコード生成において劇的な進化を遂げています。ADKのSkill Factory機能やGKE Agent Sandbox環境と組み合わせることで、ローカルPC上で自律的に動作する「AIソフトウェアエンジニア」を構築できます。エージェントがリポジトリを走査してバグを特定し、修正コードを生成し、サンドボックスでテストを実行し、テスト結果から新たな検証用スキルを自己生成して次回のレビューを強化する――この自己完結型の改善ループを、APIコストを気にせずローカルで回し続けられます。
教育分野
128K〜256Kのコンテキストウィンドウにより、教科書や参考書の全文をプロンプトに含めた質問応答が可能です。日本語対応の精度も向上しているため、国家試験の学習支援ツールとしても活用が期待できます。
翻訳・多言語対応
Gemmaシリーズからは翻訳特化のTranslateGemma(arXiv: 2601.09012)も派生しています。Gemma 4の140言語対応により、翻訳ワークフローのベースモデルとしての利用がさらに拡大する可能性があります。
コミュニティ主導の社会課題解決(Gemma 4 Good Hackathon)
GoogleはKaggle上で**「Gemma 4 Good Hackathon」**を主催し、気候変動・教育格差・防災・医療アクセスなどの社会課題をGemma 4で解決するアプリケーション開発を開発者コミュニティに促しています。審査にはGitHub/Kaggle Notebookでのコード公開、1500語以内の技術的ライトアップ、デモビデオの提出が義務付けられており、イルカのコミュニケーション解読を目指す「DolphinGemma」プロジェクトのような学際的な研究も生まれています。
開発するときに大切なこと
Gemma 4は強力なモデルですが、実際にプロダクトやサービスに組み込む際には、以下の3点を忘れないようにしましょう。
1. 周囲の理解を得てから開発する
「新しいAIモデルが出たから使ってみよう」ではなく、なぜこのモデルを使うのか、どんな課題を解決するのかを関係者に説明することが大切です。たとえば「患者データをクラウドに送りたくない→Gemma 4ならオンデバイスで処理可能→プライバシーを守りながらAI活用できる」という説明ができれば、組織としてGoサインが出しやすくなります。
「技術的に可能なこと」と「組織として進めてよいこと」は別です。まず周囲の理解を得て、合意を形成してから開発に入りましょう。
2. 開発のメリットを明確にする
誰のどんな困りごとを解決するのかを言語化してみてください。
- コスト削減:クラウドAPI費用を削減できる(ローカル推論により従量課金が不要)
- 時間短縮:ドキュメント処理やコード生成の自動化で業務効率が上がる
- プライバシー保護:データを外部に出さずに処理できる
- 安全性向上:医療現場でのダブルチェック機能として活用できる
3. 法律・ライセンスを守って開発する
Gemma 4はApache 2.0ライセンスで公開されており、商用利用も自由です。これは以前のGemmaシリーズが独自ライセンス(利用制限あり)だったことからの大きな変更点です。
ただし、ライセンスが自由だからといって、何でもOKというわけではありません。
- 個人情報保護法:学習データや推論結果に個人情報が含まれる場合、適切な管理が必要です
- 医療関連法規:医療用途では薬機法のSaMD規制、厚労省「医療情報システムの安全管理に関するガイドライン」への準拠が求められます
- 倫理的配慮:モデルカードにも記載されている通り、有害コンテンツの生成防止やバイアスへの配慮が必要です。Googleは「Responsible Generative AI Toolkit」によるガイドラインを提供しています
法律と倫理を守った開発こそが、長く信頼されるプロダクトを生み出す土台になります。
📖 用語集(3段階解説)
この記事に登場した主な専門用語を、3段階のレベルで解説します。
Mixture of Experts(MoE)
🔰 初心者向け:「専門家チーム」のようなものです。全員が毎回働くのではなく、質問の内容に応じて得意な専門家だけが答える仕組みです。大人数分の知識を持ちながら、少人数で素早く回答できます。
🔧 中級者向け:モデル内部に複数の「エキスパート」(小さなネットワーク)を持ち、ルーターがトークンごとに最適なエキスパートを選択して活性化します。総パラメータ数は大きくても、推論時に実際に計算するパラメータは一部だけなので、計算コストを抑えながら高い表現力を実現できます。
🚀 上級者向け:Gemma 4の26Bモデルでは128個のエキスパートのうち8+1(共有)をトークンごとに選択するTop-Kルーティングを採用しています。実効パラメータは約3.8Bで、Dense 31Bモデルの約97%の品質を約12%の計算コストで達成します。MoEの課題としてはロードバランシング(特定エキスパートへの偏り)やファインチューニング時の不安定性が知られています。
トークン(Token)
🔰 初心者向け:AIが文章を処理するときの「最小の単位」です。日本語では1文字〜1単語が1トークンになることが多いです。「コンテキスト128K」は、一度に約128,000個のトークン(日本語で数万〜十数万文字程度)を処理できるという意味です。
🔧 中級者向け:テキストをトークナイザー(分割器)で分解した結果の最小単位です。Gemma 4はボキャブラリサイズ262,144のトークナイザーを使用しており、多言語対応のため大きめの語彙を持っています。
🚀 上級者向け:GemmaシリーズはGemini 2.0以降と同じSentencePieceトークナイザーを使用しています。語彙サイズが大きいため埋め込み層のパラメータ数が相対的に増加しますが、多言語対応の効率を優先した設計です。
量子化(Quantization)
🔰 初心者向け:AIモデルの「データの精度を少し下げて、サイズを小さくする技術」です。画像の画質を少し落としてファイルサイズを小さくするのに似ています。精度は少し落ちますが、スマートフォンでも動くようになります。
🔧 中級者向け:モデルの重みを元の精度(bfloat16 = 16ビット浮動小数点)から、4ビットや2ビットの整数に変換する手法です。Q4_K_M量子化なら、31Bモデルが24GB GPUでも動作可能になります。精度と速度のトレードオフです。
🚀 上級者向け:Gemma 4ではLiteRT-LMが2ビットおよび4ビット量子化をサポートしており、E2Bモデルが1.5GB未満のメモリで動作します。量子化手法の選択(GPTQ、AWQ、GGUF等)によって推論品質と速度のバランスが変わるため、ユースケースに応じた選定が必要です。
ファインチューニング(Fine-tuning)
🔰 初心者向け:汎用的に作られたAIモデルに、特定の分野や業務に合わせた「追加の勉強」をさせることです。たとえば、一般的な知識を持つAIに医療用語を追加で学ばせて、医療に詳しいAIにカスタマイズするイメージです。
🔧 中級者向け:事前学習済みモデルの重みを、特定タスクのデータセットで追加訓練する手法です。全パラメータを更新するフル・ファインチューニングと、一部のパラメータのみを効率的に更新するLoRA(Low-Rank Adaptation)などの手法があります。
🚀 上級者向け:Gemma 4の31B Denseモデルはファインチューニングのベースとして最適化されています。MoEモデルはルーティング層の存在によりファインチューニングが複雑になる場合があり、Dense版の方が安定した結果が得られやすい傾向があります。Hugging Face TRLやVertex AIでのSFT(教師あり微調整)が公式にサポートされています。
Apache 2.0ライセンス
🔰 初心者向け:「このソフトウェアは自由に使ってOK、商用利用もOK」という約束事です。個人の趣味でも、会社のサービスでも、制限なく使えます。
🔧 中級者向け:Apache Software Foundationが策定したオープンソースライセンスで、商用利用・修正・再配布が自由に認められています。以前のGemmaシリーズは独自ライセンス(Google独自の利用規約付き)でしたが、Gemma 4からApache 2.0に変更されました。
🚀 上級者向け:Apache 2.0はLlama 4のCommunity License(月間アクティブユーザー制限あり)と比較して、より制約が少ないライセンスです。特許条項(特許報復条項)を含む点が注意事項ですが、基本的には最も自由度の高いオープンソースライセンスの一つです。デジタル主権(Digital Sovereignty)を重視する組織にとって、重要な選択基準になります。
エッジデバイス(Edge Device)
🔰 初心者向け:クラウド(インターネット上のサーバー)ではなく、あなたの手元にある機器のことです。スマートフォン、タブレット、ノートPC、IoTセンサーなどが該当します。
🔧 中級者向け:データの発生場所に近い場所で処理を行うデバイスの総称です。エッジAIでは、データをクラウドに送らずにデバイス上で推論を完結させるため、プライバシー保護・低レイテンシ・オフライン動作が可能になります。
🚀 上級者向け:Gemma 4 E2B/E4BモデルはPer-Layer Embeddings(PLE)により、実効パラメータ数を抑えつつ表現力を維持しています。NVIDIA Jetson Orin Nano、Raspberry Pi 5、Qualcomm/MediaTekチップセット搭載スマートフォンでの動作が検証されています。
KVキャッシュ(Key-Value Cache)
🔰 初心者向け:AIが長い文章を処理するとき、「前に読んだ内容のメモ」を一時的に保存しておく仕組みです。このメモがあることで、毎回最初から読み直さずに済み、素早く回答できます。
🔧 中級者向け:Transformerモデルのアテンション計算で使用するKey(キー)とValue(バリュー)のテンソルをキャッシュしておく仕組みです。コンテキスト長が長くなるほどKVキャッシュのメモリ消費が増大するため、長文処理の最大のボトルネックの一つです。
🚀 上級者向け:Gemma 4ではShared KV Cacheを導入し、モデル終盤の複数レイヤーでKVテンソルを再利用することでメモリフットプリントを大幅に削減しています。さらに、ローカル層とグローバル層で異なるヘッド次元(256/512)を持つため、vLLMではTritonアテンションバックエンドが自動適用されます。
RoPE(Rotary Position Embeddings)
🔰 初心者向け:AIが「この単語は文章の何番目にあるか」を認識するための仕組みです。人間が文章を読むときに「最初の方に書いてあった」「後半に出てきた」と位置を認識するのと同じ機能です。
🔧 中級者向け:トークンの位置情報を回転行列として埋め込み次元に組み込む手法で、相対位置を効率的に表現できます。Gemma 4では標準RoPEと比例的RoPE(p-RoPE)を使い分ける「Dual RoPE」を採用しています。
🚀 上級者向け:Sliding-Windowレイヤーには標準RoPE、Globalレイヤーにはコンテキスト長に応じて動的にスケールするp-RoPEが適用されます。このDual RoPE構成により、長距離コンテキストにおける「Lost in the middle」現象(文脈の中間部分の情報が失われる問題)を回避し、256Kトークンの全範囲で一貫した推論品質を維持します。
データソブリンティー(Data Sovereignty / Sovereign AI)
🔰 初心者向け:「自分のデータは自分で管理する」という考え方です。大切な情報を外国のサーバーに送らず、自分の手元(自社サーバー)で安全に処理することを重視します。
🔧 中級者向け:各国のデータレジデンシー法規制(EUのGDPR、日本の改正個人情報保護法等)に準拠するため、データの保管場所と処理場所を自国・自組織内に限定する運用方針です。Apache 2.0ライセンスのGemma 4により、オンプレミスやエアギャップ環境でのデプロイが法的制約なく可能になります。
🚀 上級者向け:Google CloudのSovereign Cloudは、暗号化キーの管理から物理的なデータセンターの場所まで、各国の規制要件に完全準拠した環境を提供しています。Gemma 4のApache 2.0ライセンスは、Llama 4のCommunity License(月間アクティブユーザー700M超で商用制限)やGemma 3以前の独自ライセンスと比較して、Sovereign AI展開における法的確実性が最も高い選択肢の一つです。
📄 一次情報・参考文献
この記事の情報は、以下の一次情報に基づいています。
arXiv(アーカイブ)について
arXiv https://arxiv.org
arXivは、コーネル大学が運営する論文のプレプリント(査読前原稿)サーバーです。研究者が学術誌や国際会議に投稿する前(または並行して)論文を公開する場所で、AI・機械学習分野では事実上の標準的な論文共有プラットフォームになっています。
重要な注意点:arXivに掲載されている論文は査読(peer review)を受けていません。つまり、第三者の専門家による内容の検証が行われていない状態です。AI分野ではGoogleやMeta、OpenAIなどの主要企業が技術報告をarXivで公開するのが一般的であり、企業内部での検証を経ているため一定の信頼性はありますが、査読付きジャーナルに正式採択された論文とは区別して読む必要があります。
インパクトファクター(IF)について
**インパクトファクター(IF)**は、学術誌の「影響力」を示す数値指標です。ある雑誌に過去2年間に掲載された論文が、その年にどれだけ他の論文から引用されたかの平均値で算出されます(Clarivate社のJournal Citation Reports (JCR) が公式算出元)。
🔰 初心者向け:「IFが高い雑誌=多くの研究者が参考にしている、信頼性の高い雑誌」と理解すればOKです。
🔧 中級者向け:IF =(当該年の被引用数)÷(過去2年間の掲載論文数)で計算されます。AI・機械学習分野の代表的ジャーナルでは、JMLR(Journal of Machine Learning Research)のIFは約4.5〜6.0前後、IEEE TPAMI(Transactions on Pattern Analysis and Machine Intelligence)はIF約20以上です。
🚀 上級者向け:IFには限界があり、h-indexやCiteScore、SJR(SCImago Journal Rank)などの代替指標も存在します。分野ごとに平均IFが大きく異なるため(医学系は高く、数学系は低い傾向)、異分野間の比較には不向きです。また、IF以外にも出版社の信頼性や査読プロセスの厳密さを確認することが重要です。
参考文献一覧
【公式ブログ・発表】(開発元による一次情報)
- Google公式ブログ(2026年4月2日): https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
- Google DeepMind公式ページ: https://deepmind.google/models/gemma/gemma-4/
- Google Developers Blog(エッジAI): https://developers.googleblog.com/bring-state-of-the-art-agentic-skills-to-the-edge-with-gemma-4/
- Android Developers Blog(AICore Preview): https://android-developers.googleblog.com/2026/03/AI-Core-Developer-Preview
- NVIDIA Technical Blog: https://developer.nvidia.com/blog/bringing-ai-closer-to-the-edge-and-on-device-with-gemma-4/
- NVIDIA RTX AI Garage Blog: https://blogs.nvidia.com/blog/rtx-ai-garage-open-models-google-gemma-4/
- NVIDIA NIM モデルカード: https://build.nvidia.com/google/gemma-4-31b-it/modelcard
- Hugging Face ブログ: https://huggingface.co/blog/gemma4
- Google Cloud Blog(Gemma 4 on GCP): https://cloud.google.com/blog/products/ai-machine-learning/gemma-4-available-on-google-cloud
【Agent Development Kit(ADK)関連】
- ADK公式ドキュメント: https://google.github.io/adk-docs/
- ADKソースコード(GitHub): https://github.com/google/adk-docs
- ADKサンプルエージェント集(GitHub): https://github.com/google/adk-samples
- ADK Skillsガイド: https://developers.googleblog.com/developer-guide-building-adk-agents-with-skills/
【エッジAI・モバイル関連】
- AI Edge Gallery(GitHub): https://github.com/google-ai-edge/gallery
- MedGemma公式ページ: https://deepmind.google/models/medgemma/
- MedGemma Impact Challenge(Kaggle): https://kaggle.com/competitions/medgemma-impact-challenge
- Gemma 4 Good Hackathon(Kaggle): https://kaggle.com/competitions/gemma-4-good-hackathon
【モデルカード・技術仕様】(開発元による一次情報)
- Gemma 4 モデルカード: https://ai.google.dev/gemma/docs/core/model_card_4
- Gemma リリースノート: https://ai.google.dev/gemma/docs/releases
【arXivプレプリント】(⚠️ 以下はすべて査読前の論文です。2026年4月3日時点で、査読付きジャーナル・学会への正式採択は確認できていません)
- Gemma Team, "Gemma: Open Models Based on Gemini Research and Technology", arXiv:2403.08295, 2024. https://arxiv.org/abs/2403.08295
- Gemma Team, "Gemma 2: Improving Open Language Models at a Practical Size", arXiv:2408.00118, 2024. https://arxiv.org/abs/2408.00118
- Gemma Team, "Gemma 3 Technical Report", arXiv:2503.19786, 2025. https://arxiv.org/abs/2503.19786
- Sellergren et al., "MedGemma Technical Report", arXiv:2507.05201, 2025. https://arxiv.org/abs/2507.05201
- Google, "TranslateGemma Technical Report", arXiv:2601.09012, 2026. https://arxiv.org/abs/2601.09012
⚠️ 査読状況についての補足:上記のGemmaシリーズの論文は、2026年4月時点ですべてarXivプレプリントとして公開されており、JMLR、NeurIPS、ICML、ICLR等の査読付きジャーナルや国際会議への正式採択は確認されていません。Google DeepMindの技術報告は企業内部での品質管理を経ていますが、独立した第三者による査読プロセスは経ていない点にご留意ください。今後、査読付きの掲載が確認でき次第、本記事を更新します。
【モデルのダウンロード】
- Hugging Face: https://huggingface.co/collections/google/gemma-4
- Kaggle: https://www.kaggle.com/models/google/gemma-4
- Ollama: https://ollama.com/library/gemma4
注記: 2026年4月3日時点で、Gemma 4自体のテクニカルレポート(arXiv論文)は未公開です。上記のベンチマーク数値はモデルカード・公式ブログ・サードパーティ検証(Hugging Face、NVIDIA、LushBinary等)に基づいています。テクニカルレポートが公開され次第、本記事を更新予定です。
まとめ
- Gemma 4はGoogle DeepMindがリリースした最新のオープンモデルで、Gemini 3と同じ研究技術から生まれています
- **4サイズ展開(E2B / E4B / 26B MoE / 31B Dense)**で、スマートフォンからワークステーションまでカバーします
- Apache 2.0ライセンスで商用利用も自由であり、これはGemmaシリーズ初の完全オープンソース化です
- マルチモーダル(テキスト・画像・動画・音声)、256Kコンテキスト、ネイティブ関数呼び出しに対応しています
- LMArenaテキストリーダーボードでオープンモデル世界第3位(31B)のスコアを達成し、パラメータ効率で圧倒的な成績を収めています
- **Agent Development Kit(ADK)**の統合により、「チャットボット」から「自律エージェント」へのパラダイムシフトを実現します
- データソブリンティー:オンプレミスやSovereign Cloud上でのセキュアなデプロイが可能で、金融・医療・政府機関のコンプライアンス要件に対応します
最後に――この記事を読んでくれたあなたに感謝します。AIの世界は日々進化していますが、こうして最新の情報をキャッチアップしようとする姿勢こそが、一番大切なスキルです。どのレベルから読み始めた方も、ここまでたどり着いたあなたは確実に前に進んでいます。
開発に取り組むときは、まず周囲の理解を得て、メリットを言語化し、法律を守って進めていきましょう。技術の力を、正しい方向に使える人が、本当の意味で強いエンジニアです。
臨床工学技士 × AIエンジニア