はじめに
2026年4月2日、GoogleはGemini Nano 4をAndroidデバイス向けに発表しました。前世代(Gemini Nano 3)と比べて処理速度が4倍高速、バッテリー消費が60%削減という大幅な改善を実現し、140以上の言語に対応したオンデバイスAIの新標準です。
この記事では、Gemini Nano 4の技術仕様から開発者向けSDKの実装方法まで、公式ドキュメントをもとに解説します。
この記事で学べること
- Gemini Nano 4の技術仕様と前世代との違い
- FastとFullの2モデルの選び方
- ML Kit / Firebase AI Logic / MediaPipeによるAndroid実装方法
- AICore Developer Previewへの参加方法
対象読者
- Androidアプリにオンデバイス推論を組み込みたい開発者
- Gemini Nano の最新動向を把握したいエンジニア
- プライバシー重視・オフライン動作が必要なアプリを開発中の方
TL;DR
- Gemini Nano 4はGemma 4(E2B / E4B)ベースのオンデバイスモデル
- 前世代比 4倍高速・60%省電力、140+言語・128Kトークンコンテキスト対応
- テキスト・画像・音声・動画のマルチモーダル推論をデバイス上で実行
- ML Kit Prompt API / Firebase AI Logic / MediaPipeの3系統でアクセス可能
- 2026年4月よりAICore Developer Previewで早期開発スタート可能
Gemini Nano 4 の技術仕様
2つのモデルバリアント
Gemini Nano 4はGemma 4の**E2B(Effective 2B)とE4B(Effective 4B)**の2種類をベースにしています。
| モデル | 有効パラメータ | 全パラメータ | コンテキスト | 特性 |
|---|---|---|---|---|
| Nano 4 Fast (E2B) | 2B | 5.1B | 128K | 最大速度・低レイテンシ |
| Nano 4 Full (E4B) | 4B | 8B | 128K | 高精度・複雑タスク向け |
「E」(Effective)の名称は**Per-Layer Embeddings (PLE)**アーキテクチャを示しています。各層でEmbeddingを持つことでパラメータ効率を最大化し、小さいモデルサイズながら高いパフォーマンスを維持する設計です1。
前世代との比較
| 項目 | Gemini Nano 3 | Gemini Nano 4 |
|---|---|---|
| 処理速度 | 基準(1x) | 4x 高速 |
| バッテリー消費 | 基準(100%) | 40%(60%削減) |
| コンテキスト長 | 約64K | 128K |
| 対応言語 | 100+ | 140+(35+はネイティブ) |
| マルチモーダル | 限定的 | テキスト・画像・音声・動画 |
| ネイティブ音声入力 | 非対応 | 対応(ASR + 翻訳) |
| アーキテクチャ | Dense | Per-Layer Embeddings |
マルチモーダル対応
Gemini Nano 4(E2BおよびE4B)は以下のモダリティをオンデバイスで処理できます2:
- テキスト: 128Kトークンの長文コンテキスト
- 画像: チャート理解、手書き認識、視覚データ抽出
- 音声: 自動音声認識(ASR)、音声→翻訳テキスト変換
- 動画: 動画コンテンツの理解・要約
ユースケース別モデル選択
速度優先(チャット・アシスタント)
→ Nano 4 Fast(E2B)
- リアルタイム返答が必要なUI
- 音声認識・翻訳のリアルタイム処理
精度優先(複雑な推論・長文処理)
→ Nano 4 Full(E4B)
- ドキュメント要約・分析
- 複雑な質問応答・数学的推論
- 長文の文書理解(最大128Kトークン)
AICore Developer Preview への参加方法
Googleは2026年4月よりAICore Developer Previewを通じて開発者向け早期アクセスを開始しています3。
参加手順
- テストアカウントで
aicore-experimentalGoogleグループに参加 - Google PlayのAndroid AICore テストプログラムにテスターとして登録
- AICoreアプリをダウンロードし、Developer Previewモードを有効化
注意点
- Developer Preview期間中の実装コードは、2026年後半の本番デバイス(Pixel 11等)でも互換性が維持される見込み(フォワード互換)
- 本番リリース時はQualcomm Snapdragon 8 Elite / MediaTek Dimensity 9400以降のデバイスで最適なパフォーマンスが得られる
SDK別実装ガイド
方法1: ML Kit Prompt API(推奨・シンプル)
最もシンプルにGemini Nanoを利用できるAPIです4。依存関係は以下を追加します。
// build.gradle.kts
dependencies {
implementation("com.google.mlkit:genai-prompt:1.0.0-beta2")
}
ML Kit Prompt APIの詳細な使用方法と最新のAPIシグネチャは、公式ドキュメント(ML Kit GenAI Prompt API)を参照してください。Developer Preview期間中はAPIの変更が行われる可能性があります。
Developer Preview期間中の注意
ML Kit Prompt APIのインターフェースはPreview期間中に変更される可能性があります。実装時は常に最新の公式ドキュメントを参照してください。
方法2: Firebase AI Logic(クラウドフォールバック付き)
オンデバイス優先・クラウドフォールバックのハイブリッド構成に最適です5。
// build.gradle.kts
dependencies {
implementation(platform("com.google.firebase:firebase-bom:34.11.0"))
implementation("com.google.firebase:firebase-ai")
}
import com.google.firebase.ai.FirebaseAI
import com.google.firebase.ai.type.generationConfig
// オンデバイス優先モードで初期化
val model = FirebaseAI.getInstance()
.generativeModel(
modelName = "gemini-nano",
generationConfig = generationConfig {
temperature = 0.8f
topK = 40
topP = 0.95f
maxOutputTokens = 512
}
)
// ストリーミング生成
val response = model.generateContentStream(userInput)
response.collect { chunk ->
println(chunk.text)
}
方法3: MediaPipe LLM Inference API(Web対応)
クロスプラットフォームSDKです6。
Android向けMediaPipe LLM Inferenceは廃止予定
Android向け実装は非推奨となりました。Androidの場合は引き続きLiteRT-LM(後述)またはML Kit Prompt APIの利用が推奨されています。WebおよびiOSは引き続き利用可能です。
Webアプリの場合(JavaScript):
import { FilesetResolver, LlmInference } from "@mediapipe/tasks-genai";
// MediaPipe初期化
const genaiFileset = await FilesetResolver.forGenAiTasks(
"https://cdn.jsdelivr.net/npm/@mediapipe/tasks-genai"
);
// モデル読み込み
const llmInference = await LlmInference.createFromOptions(genaiFileset, {
baseOptions: {
modelAssetPath: "path/to/gemma-4-e2b.litertlm"
},
maxTokens: 512,
temperature: 0.7,
topK: 40
});
// テキスト生成
const result = await llmInference.generate(userPrompt);
console.log(result);
Android向け代替(LiteRT-LM):
AndroidではMediaPipe LLM Inferenceの代わりにLiteRT-LMの使用が推奨されています。.litertlm形式のモデルファイルをデバイスに配置し、LiteRT APIから推論を実行します。詳細は公式ドキュメントを参照してください。
SDK選定ガイド
| 要件 | 推奨SDK |
|---|---|
| 最もシンプルに実装したい | ML Kit Prompt API |
| クラウドフォールバックが必要 | Firebase AI Logic |
| iOS / Web にも対応したい | MediaPipe LLM Inference |
| IoT・組み込みデバイス対応 | LiteRT-LM |
利用可能なデバイスと展開スケジュール
| 時期 | 内容 |
|---|---|
| 2026年4月〜 | AICore Developer Preview(開発者向け早期アクセス) |
| 2026年後半 | Pixel 11シリーズ等フラッグシップデバイスへの展開 |
対応チップセット(最適動作):
- Qualcomm Snapdragon 8 Elite
- MediaTek Dimensity 9400
Android 10以降のデバイスはCPU推論でも動作しますが、上記チップセット搭載デバイスで最高パフォーマンスが発揮されます7。
注意点
Developer Preview期間中の制限事項
- ツールコール(Function Calling)、構造化出力、システムプロンプト、Thinkingモードは順次追加予定
- 本番デバイスへの展開タイミングは変更の可能性あり
- 料金・商用利用条件は未発表(Gemma 4モデル自体はApache 2.0ライセンス)
キャッシュ・フォワード互換性
Developer Preview中に書いたGemma 4向けコードは、2026年後半に本番デバイスへ展開されるGemini Nano 4でも動作する予定です。現時点から実装を始めることで、リリース直後の対応が可能になります。
まとめ
Gemini Nano 4(Gemma 4ベース)は、オンデバイスAIの実用性を大きく前進させるリリースです。
- 前世代比4倍高速・60%省電力でモバイルへの負荷を大幅に軽減
- 128Kトークン・140+言語・マルチモーダルで幅広いユースケースに対応
- FastとFullの2バリアントで速度と精度を選択可能
- ML Kit / Firebase / MediaPipeの3系統SDKで柔軟に実装可能
- 2026年4月よりAICore Developer Previewで開発開始可能
プライバシー保護・オフライン動作・低レイテンシが求められるAndroidアプリに、いよいよ実用レベルのオンデバイスLLMが利用できる時代が到来しました。
参考リンク
- Google公式: Gemma 4 ブログ — モデル概要
- Android Developers Blog: AICore Developer Preview — 開発者向けアクセス方法
- ML Kit GenAI APIs ドキュメント — Prompt API実装ガイド
- Firebase AI Logic — Firebase経由の実装
- MediaPipe LLM Inference — クロスプラットフォーム実装
- 9to5Google: Gemini Nano 4 概要 — 技術仕様詳細