この記事では"How to Use"ではなく"What is This"に着目しています。実際にLLMを使う方法(OllamaやLM Studioでの利用方法)は紹介していません。
今回紹介するモデル
QED-Nano
QED-Nano
モデル概要
ベースモデル: Qwen3-4B-Thinking-2507
コンテキストサイズ: 262k
パラメータ数: 4B
使用VRAM: 2.5~3GB(Q4_K_M)
公式対応言語: 英語
想定用途: 数学などの分野での証明
感想
- ベースモデルのQwen3-4B-Thinkingより賢いような気がする
- 日本語での会話は可能
- ウェブ検索系のツールも利用できていた
- 軽量なコーディングタスクならこなせるが、複数ファイルを扱うようなコーディングタスクは不向き
- 数学特化モデルとはいえ、複雑すぎる証明タスクは厳しい
まとめ
何か大きな問題があるわけではなく、普通に使えるモデルである。日常用途で使うにはThinkingプロセスが長すぎるし、他の4Bモデルを選んだ方がいいと言えるが、数学用途で使うなら手頃なモデルである。もちろん理論を積み重ねていくような証明(単純な計算ではなくタスクの積み重ねが発生する証明)では実用的な出力を出すことはできなかったが、粒度の低いタスク分けが可能な証明であれば解答できていた。
数学用途でないのであればこのモデルを選ぶ必要はない。割とThinkingプロセスが長いので日常使いも厳しい。時間がかかることを前提として証明タスクをやらせたい場合には有効。
評価モデル一覧