1. はじめに
WindowsのノートPCでローカルLLMを試そうと思いLM StudioやOllamaを触ったところ、モデルファイルをダウンロードするたびにギガバイト単位でストレージを消費することがわかりました。
そこでLM StudioでダウンロードしたGGUF形式のモデルファイルをOllamaで利用する方法を調べ、次の手順でできました。
2. 手順
例としてLM Studioでダウンロードしたgemma-3-4b-it-Q4_K_M.gguf
をollamaで利用する手順を以下に示します。
1.Modelfileを作成する
C:\Users\ユーザー名\.ollama\models
フォルダへModelfile_gemma-3-4b-it-Q4_K_M.txt
ファイルを作成し、from
とLM Studioでダウンロードしたモデルファイルのパス
を記述します。
C:\Users\ユーザー名\.ollama\models\Modelfile_gemma-3-4b-it-Q4_K_M.txt
from C:\Users\ユーザー名\.lmstudio\models\lmstudio-community\gemma-3-4b-it-GGUF\gemma-3-4b-it-Q4_K_M.gguf
2.ollamaで利用する
コマンドプロンプトを開き、Ollama用のモデルをモデルファイルから作成します。
cd C:\Users\ユーザー名\.ollama
ollama create gemma-3-4b-it -f models\Modelfile_gemma-3-4b-it-Q4_K_M.txt
3. おわりに
LM Studioでダウンロードしたモデルファイルを改めてOllamaでダウンロードしないで済むようになりローカルLLMを試す敷居が下がりました。