発生状況
LM Studio をインストールして、メッセージで勧められるがままにモデルをインストールして、対話を始めようとしたところ、次のエラーメッセージが表示されて先に進まなかった。
エラーメッセージで検索しても解決事例がなかなか見当たらなかった。私のPCがお古だからかもしれない。。。
🥲 Failed to load the model
Failed to load model
llama.cpp error: 'vk::PhysicalDevice::createDevice: ErrorExtensionNotPresent'
発生環境
- Let's note CF-SZ6
- OS: Windows 11 Pro 22H2
- CPU: Core i5-7300U
- GPU: Intel HD Graphics 620
- RAM: 8GB
- LM Studio 0.3.5
解決方法
私の場合は、次の手順でモデルを読み込んで対話を開始することができた。
手順1 対話タブを開いたままで Ctrl + Shift + R を押す。
手順2 Runtime 設定の変更
Mission Control > Runtimes > Runtime Preferences > Configure Runtimes で Vulkan llama.cpp(Windows) が選択されていたら CPU llama.cpp(Windows) を選択する。選択が終われば Mission Control 画面は閉じてかまわない。
はじめは Vulkan llama.cpp(Windows) が選択されていた
手順3 再度、モデルの読み込み
再びモデルを読み込ませると、今回はエラーなく完了した。
手順4 無事に対話ができた
その他
これで、LM Studioの利用を始めることができた。もし、今後、同じエラーで困っている人の役に立つと嬉しい。
追記
その後、試してみたら、 モデルを読み込ませた後であれば、Runtimeを Vulkan llama.cpp(Windows) に戻しても対話できる ことが分かったので追記しておく。