0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Intel Mac 2018(i7/32GB)で動く“日本語OKなローカルLLM”を比較・選定する(準備編)

Last updated at Posted at 2025-09-15

はじめに

手元にある Intel Mac(2018, i7/32GB) で、日本語で実務に使えるローカルLLMを動かしたい。

Intel機ゆえに「GPUで快適に」は望めません。“できる範囲で最短の成果” を狙うのが今回のテーマ。
この環境は GPU非力(内蔵Intel UHD 630) で、PythonやDockerの重い環境構築も避けたい。
そこで今回は、CPUで現実的に回せる 7B〜13B級 を中心に、日本語性能と軽さのバランスで 「まず何を試すか」 を決めます。
今ある環境の検証で、同じような境遇の方に参考となれば幸いです。

検証スタンス
「SOTAを追いかける」より “現場で役立つ” を優先。
議事録整形や顧客メールの下書きに強いかを特に見ています。
ローカルLLM故に個人情報をあまり気にせず、蓄積して活用したいと思います。


ゴール

この段階では「比較して“何を試すか”を決めるまで」
実インストール〜動作確認は次回記事で扱います。

検証環境:MacBook Pro 15-inch, 2018 / Intel Core i7 6コア / 32GB RAM / macOS Sequoia 15.6


前提と評価基準

  • 前提ハード:Intel i7(6C/12T)/ 32GB RAM / 内蔵GPU → CPU推論が前提
  • 現実的なモデルサイズ7B〜13B(4bit量子化:q4系推奨)
  • 日本語要件:敬語・ビジネス文・長文整理で破綻しにくいこと
  • 運用要件:導入が簡単(OllamaLM Studio などGUI/一発導入系が理想)

評価観点は次の5つ:

  1. 日本語の自然さ(敬語・用語の整合性)
  2. 構造化力(要点抽出、章立て、タスク分解)
  3. 体感速度(CPUでの返答待ちの短さ)
  4. メモリフットプリント(q4での常用可否)
  5. 安定性(不要なハルシネーション抑制)

📝 メモ(評価のクセ)
「敬語の粒度」と「章立ての綺麗さ」も重要。
将来的にはビジネス面での活用も視野に入れて、ビジネス文章を自然な状態で作れるか、が基準。


候補モデル(Intel Mac/CPUで現実的・日本語OK)

※規模は “B = Billion parameters”。メモリは q4量子化の目安

モデル ベンダー 規模 日本語 速度感 q4メモリ目安 向いている用途(想定)
Llama 3.1 8B Instruct Meta 8B 5–6GB 要約、議事録整形、メール/稟議下書き、要件整理
Qwen2.5 7B Instruct Alibaba 7B 4–5GB 多言語強め。Q&A、仕様の言い換え、軽いコード補助
Gemma 2 9B IT Google DeepMind 9B ○〜◎ 6–7GB 長文の章立て・構造化、提案書の骨子作り
Mistral 7B Instruct v0.3 Mistral AI 7B 4–5GB 速度重視の要点抽出・テキスト整形のバッチ処理
ELYZA-japanese-Llama-2-13B-instruct ELYZA 13B 9–11GB 日本語の敬語・言い回し精度が欲しい原稿づくり
Japanese-StableLM Instruct 7B Stability AI Japan 7B ~5GB 代替候補。軽作業の和文生成
OpenCALM 7B CyberAgent 7B ~5GB 日本語基盤の素直な応答(最新SOTAには劣る)
Phi-3.5-mini(3.8B) Microsoft 3.8B ○* ◎◎ 2–3GB 超軽量。短文の箇条書き・雛形。長文は非推奨
Qwen2.5 14B Instruct Alibaba 14B 10–12GB 品質重視のスポット利用(常用は重い)

* Phi系は軽いが、長文・高度推論は苦手。短文スニペット向け。

📝 著者メモ(表の読み方)
迷ったら Llama 3.1 8B を“基準器”に。速さが欲しい日は Mistral 7B敬語の精度を上げたい日は ELYZA 13B を差し替えます。


結論:今回の“試す順”優先順位(3案&理由)

第1優先:Llama 3.1 8B Instruct(Meta)

  • 理由:日本語の自然さ・構造化・速度のバランスが最良。7〜9B帯の“基準器”。
  • 用途:議事録→要点、メール/稟議ドラフト、要件整理、NoteやQiitaの素案。

第2優先:Qwen2.5 7B Instruct(Alibaba)

  • 理由:軽くて日本語も強い。多言語/推論の粘りが良く、Aの控えとしてほぼ同格
  • 用途:Q&A、仕様言い換え、軽いコード補助、言語横断の下ごしらえ。

第3優先:Gemma 2 9B IT(Google DeepMind)

  • 理由章立て・論理展開が破綻しにくい。長文構造化の安定感。
  • 用途:提案書の骨子、構成→本文の叩き台づくり。

補欠枠

  • 速度特化:Mistral 7B Instruct v0.3(Mistral AI)
  • 日本語ニュアンス特化:ELYZA 13B(ELYZA)

次回に向けた準備

今回は “比較と選定”まで
次回は Ollama を使い、最小構成で試します(Intelでも楽)。

# インストール(次回詳述)
brew install ollama

# まずはこの3モデルを取得
ollama pull llama3.1:8b-instruct
ollama pull qwen2.5:7b-instruct
ollama pull gemma2:9b-instruct
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?