はじめに
手元にある Intel Mac(2018, i7/32GB) で、日本語で実務に使えるローカルLLMを動かしたい。
Intel機ゆえに「GPUで快適に」は望めません。“できる範囲で最短の成果” を狙うのが今回のテーマ。
この環境は GPU非力(内蔵Intel UHD 630) で、PythonやDockerの重い環境構築も避けたい。
そこで今回は、CPUで現実的に回せる 7B〜13B級 を中心に、日本語性能と軽さのバランスで 「まず何を試すか」 を決めます。
今ある環境の検証で、同じような境遇の方に参考となれば幸いです。
検証スタンス
「SOTAを追いかける」より “現場で役立つ” を優先。
議事録整形や顧客メールの下書きに強いかを特に見ています。
ローカルLLM故に個人情報をあまり気にせず、蓄積して活用したいと思います。
ゴール
この段階では「比較して“何を試すか”を決めるまで」。
実インストール〜動作確認は次回記事で扱います。
検証環境:MacBook Pro 15-inch, 2018 / Intel Core i7 6コア / 32GB RAM / macOS Sequoia 15.6
前提と評価基準
- 前提ハード:Intel i7(6C/12T)/ 32GB RAM / 内蔵GPU → CPU推論が前提
- 現実的なモデルサイズ:7B〜13B(4bit量子化:q4系推奨)
- 日本語要件:敬語・ビジネス文・長文整理で破綻しにくいこと
- 運用要件:導入が簡単(Ollama や LM Studio などGUI/一発導入系が理想)
評価観点は次の5つ:
- 日本語の自然さ(敬語・用語の整合性)
- 構造化力(要点抽出、章立て、タスク分解)
- 体感速度(CPUでの返答待ちの短さ)
- メモリフットプリント(q4での常用可否)
- 安定性(不要なハルシネーション抑制)
📝 メモ(評価のクセ)
「敬語の粒度」と「章立ての綺麗さ」も重要。
将来的にはビジネス面での活用も視野に入れて、ビジネス文章を自然な状態で作れるか、が基準。
候補モデル(Intel Mac/CPUで現実的・日本語OK)
※規模は “B = Billion parameters”。メモリは q4量子化の目安。
モデル | ベンダー | 規模 | 日本語 | 速度感 | q4メモリ目安 | 向いている用途(想定) |
---|---|---|---|---|---|---|
Llama 3.1 8B Instruct | Meta | 8B | ◎ | ◎ | 5–6GB | 要約、議事録整形、メール/稟議下書き、要件整理 |
Qwen2.5 7B Instruct | Alibaba | 7B | ◎ | ◎ | 4–5GB | 多言語強め。Q&A、仕様の言い換え、軽いコード補助 |
Gemma 2 9B IT | Google DeepMind | 9B | ○〜◎ | ○ | 6–7GB | 長文の章立て・構造化、提案書の骨子作り |
Mistral 7B Instruct v0.3 | Mistral AI | 7B | ○ | ◎ | 4–5GB | 速度重視の要点抽出・テキスト整形のバッチ処理 |
ELYZA-japanese-Llama-2-13B-instruct | ELYZA | 13B | ◎ | △ | 9–11GB | 日本語の敬語・言い回し精度が欲しい原稿づくり |
Japanese-StableLM Instruct 7B | Stability AI Japan | 7B | ○ | ○ | ~5GB | 代替候補。軽作業の和文生成 |
OpenCALM 7B | CyberAgent | 7B | ○ | ○ | ~5GB | 日本語基盤の素直な応答(最新SOTAには劣る) |
Phi-3.5-mini(3.8B) | Microsoft | 3.8B | ○* | ◎◎ | 2–3GB | 超軽量。短文の箇条書き・雛形。長文は非推奨 |
Qwen2.5 14B Instruct | Alibaba | 14B | ◎ | △ | 10–12GB | 品質重視のスポット利用(常用は重い) |
* Phi系は軽いが、長文・高度推論は苦手。短文スニペット向け。
📝 著者メモ(表の読み方)
迷ったら Llama 3.1 8B を“基準器”に。速さが欲しい日は Mistral 7B、敬語の精度を上げたい日は ELYZA 13B を差し替えます。
結論:今回の“試す順”優先順位(3案&理由)
第1優先:Llama 3.1 8B Instruct(Meta)
- 理由:日本語の自然さ・構造化・速度のバランスが最良。7〜9B帯の“基準器”。
- 用途:議事録→要点、メール/稟議ドラフト、要件整理、NoteやQiitaの素案。
第2優先:Qwen2.5 7B Instruct(Alibaba)
- 理由:軽くて日本語も強い。多言語/推論の粘りが良く、Aの控えとしてほぼ同格。
- 用途:Q&A、仕様言い換え、軽いコード補助、言語横断の下ごしらえ。
第3優先:Gemma 2 9B IT(Google DeepMind)
- 理由:章立て・論理展開が破綻しにくい。長文構造化の安定感。
- 用途:提案書の骨子、構成→本文の叩き台づくり。
補欠枠
- 速度特化:Mistral 7B Instruct v0.3(Mistral AI)
- 日本語ニュアンス特化:ELYZA 13B(ELYZA)
次回に向けた準備
今回は “比較と選定”まで 。
次回は Ollama を使い、最小構成で試します(Intelでも楽)。
# インストール(次回詳述)
brew install ollama
# まずはこの3モデルを取得
ollama pull llama3.1:8b-instruct
ollama pull qwen2.5:7b-instruct
ollama pull gemma2:9b-instruct