Qwen3.5 入門 — Alibabaのハイブリッド推論モデルがローカルLLMの選択肢を変えた
「ローカルで動かせるLLMって、結局GPT-4には及ばないよね」
そういう印象が変わりつつあります。
Alibabaのチームが2026年2月にリリースしたQwen3.5は、0.8Bから397BまでのモデルファミリーとMoE(Mixture of Experts)アーキテクチャを組み合わせ、ローカル環境でも実用的な精度を出せるモデルとして注目されています。
特に興味深いのは「ハイブリッド推論」というコンセプト。これ、地味に重要な変化なんですよね。
Qwen3.5の構成と特徴
モデルサイズのラインナップ
Qwen3.5は複数のモデルサイズを揃えています。
| モデル | パラメータ数 | 用途 |
|---|---|---|
| Qwen3.5-0.8B | 0.8B | 超軽量・エッジデバイス |
| Qwen3.5-2B | 2B | モバイル・ローカル軽量用途 |
| Qwen3.5-4B | 4B | ローカル汎用 |
| Qwen3.5-9B | 9B | ローカル高性能 |
| Qwen3.5-27B | 27B | GPU1枚での高精度用途 |
| Qwen3.5-35B-A3B (MoE) | 35B(実効3B) | 軽量MoE |
| Qwen3.5-122B-A10B (MoE) | 122B(実効10B) | 中規模MoE |
| Qwen3.5-397B-A17B (MoE) | 397B(実効17B) | フラッグシップMoE |
MoEモデルの「A3B」「A10B」という表記は「Active 3B」の略で、推論時に実際に使われるパラメータ数を示しています。全パラメータを使わず、タスクに応じた専門家(Expert)のサブセットだけを活性化する仕組みです。
ハイブリッド推論とは何か
Qwen3.5の大きな特徴が「ベースモデルとハイブリッド推論モデルの両方を提供している」という点です。
通常のモデルは、入力に対して直接答えを出します。速いですが、複雑な推論が必要なタスクでは精度が落ちることがあります。
推論特化モデル(DeepSeek-R1やo1系)は、答えを出す前に内部で「考えるプロセス」を経ます。精度は上がりますが、レイテンシが増えます。
Qwen3.5のハイブリッド推論モデルは、タスクの複雑さに応じて「すぐに答える」か「じっくり考える」かを切り替えられる設計になっています。
# 簡単なタスクは速く答える
response = model.generate(
"東京の天気を教えて",
thinking_mode="fast" # 推論ステップをスキップ
)
# 複雑なタスクは考えてから答える
response = model.generate(
"このアルゴリズムの時間計算量を解析して最適化案を提案して",
thinking_mode="deep" # 内部推論を有効化
)
コスト(レイテンシ)と精度のトレードオフをアプリ側で制御できる、という点が実用的です。
Qwen3.5-Maxのベンチマーク結果
2026年3月19日時点でLMArenaのリーダーボードに追加されたQwen3.5-Max-Previewは、英語テキストリーダーボードで10位前後に位置しています。
注目すべきは、これがAPIアクセス可能なモデルとしては非常にコスト効率が高いという点です。GPT-5.4 ProやClaude Opus 4.6のような最上位モデルには及ばない部分もありますが、多くのユースケースで「十分以上」の精度を、はるかに低いコストで実現できます。
コーディングタスクでの評価
開発者コミュニティからの報告をまとめると、Qwen3.5はコーディングタスクでの評価が高いです。特に:
- Python/JavaScriptの一般的なタスク — 上位モデルと遜色ない
- アルゴリズムの実装と最適化 — 推論モードを有効にすると精度が上がる
- コードレビューと説明 — 日本語での説明品質が高い(多言語対応の強化)
ローカル環境でのセットアップ
OllamaやLM Studioを使えば、数コマンドでQwen3.5をローカルで動かせます。
Ollamaでの起動
# Qwen3.5-7B(Ollamaでは実行可能な軽量版)
ollama pull qwen3.5:7b
# 対話的に使う
ollama run qwen3.5:7b
# APIとして使う
curl http://localhost:11434/api/generate \
-d '{
"model": "qwen3.5:7b",
"prompt": "Pythonで非同期処理を使ったWebスクレイパーを書いて",
"stream": false
}'
LM Studioでの利用
GUIで操作したい場合はLM Studioが使いやすいです。モデルリポジトリからQwen3.5シリーズを検索してダウンロードするだけで動きます。GGUF形式のquantizedバージョンを使えば、VRAM 8GBのGPUでも9Bモデルが動作します。
Python(transformers)での直接利用
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "Qwen/Qwen3.5-7B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.bfloat16,
device_map="auto"
)
messages = [
{"role": "system", "content": "あなたは優秀なコーディングアシスタントです。"},
{"role": "user", "content": "再帰を使わずにフィボナッチ数列を計算するPython関数を書いてください。"}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
inputs = tokenizer([text], return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0][inputs.input_ids.shape[1]:], skip_special_tokens=True))
どんな用途に向いているか
Qwen3.5の強みを活かせる用途を整理すると、こんな感じになります。
✅ 向いている用途
プライバシーが重要な社内ツール
自社のコードやドキュメントを使ったRAGシステム、コードレビューボット、ドキュメント生成ツールなど。外部APIにデータを送りたくない場合に、ローカルで動く高性能LLMとして活躍します。
コスト最適化が必要な大量処理
大量のテキスト分類、要約、翻訳など。クラウドLLMのAPIコストが積み上がるユースケースでは、ローカル実行に切り替えることでコストを大幅削減できます。
マルチモーダルアプリケーション
Qwen3.5-Maxはネイティブマルチモーダル対応なので、テキスト+画像の処理が必要なアプリにも使えます。
⚠️ 注意が必要な用途
最高精度が求められるタスク
GPT-5.4 ProやClaude Opus 4.6と比べると、特に高度な推論や創造的なタスクでは差があります。精度優先なら上位モデルを選ぶべきです。
リアルタイム処理
ローカル実行のため、クラウドAPIと比べてレイテンシが環境依存になります。ハードウェアによっては遅くなる場合があります。
まとめ
Qwen3.5が示すのは、「ローカルLLMが選択肢に入る時代が本格化した」ということだと思います。
0.8Bから397Bまでのサイズ選択肢、ハイブリッド推論によるコストと精度のバランス制御、そしてMoEアーキテクチャによる効率的な推論。これらが組み合わさることで、「クラウドAPIを使うほどでもないが、従来のローカルモデルでは力不足」という領域のニーズに応えられるようになってきました。
自社データを扱うシステムや、コスト最適化が必要な大量処理など、ローカルLLMが合理的な選択肢になるケースは確実に増えています。一度試してみる価値はあるかなと思います。