2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

「Ryzen 7 8700G」のiGPUで「LM Studio」「ollama」「Stable Diffusion」と戯れる

Posted at

AMDのAPU「Ryzen 7 8700G」のiGPU(Radeon 780M/gfx1103)で「LM Studio」「ollama」「Stable Diffusion」と戯れたメモ。純粋Windowsの話のみ。WSL2は登場しない。

環境は以下の通り。

M/B: MSI PRO B650M-A WIFI
CPU: AMD Ryzen 7 8700G with Radeon 780M GPU
Memory: DDR5-5600(OC) 32GBx2 EXPO
OS: Windows11 Pro

※BIOS設定でUMA Frame Buffer Sizeを最大の16GBに設定している。

結論

「LM Studio」→ VulkanのRuntimeにてGPU動作。
「ollama」→ ROCmでGPU動作。
「Stable Diffusion」→ ZLUDAでGPU動作。

スンナリとGPUを活用できる環境が整えられた。有志の努力の賜物だ。基本的にCPUより速いが、ROCmではCPUと良い勝負になってしまう場合もある。dGPUと比較すると、小型化可能、省電力、メモリを盛りやすい点がメリット。ただし性能は最低ライン。AIだけを目的として8700Gで新調するのは微妙だが、何かのついでならば手軽に遊べる選択肢としてアリだ。

お世話になったプロダクト

ROCmLibs-for-gfx1103-AMD780M-APU

iGPUを含むROCm非対応のAMD GPUでROCmするための非公式パッチ。HIP SDKのDLLを1個とディレクトリを1個入れ替える事で適用できる。Linux用モジュールもある。

ZLUDA

IntelやAMDのGPUでCUDAアプリを動作させるバイナリ互換レイヤー。以前はAMDが支援していたが一旦closeして、別の開発者により復活したという経緯がある。

「鋭意開発中でベンチ位しか動かないよ」と言いつつ、うっかりStable Diffusionが動いてしまう程度の完成度。何時の時代もバイナリ互換にはロマンがある。

(とはいえNVIDIAは「ズルいCUDAは許さない」方向だそう。 https://news.livedoor.com/article/detail/25992931/

LM Studio

LLMのダウンロードから推論まで手軽に試せるGUIアプリ。試したのは「LM Studio 0.3.8」のWindows版。

上記に「ROCmLibs~」の適用手順があるが、注意書きの通り最新Ver.ではモジュール構成が変わっており動作させる事ができなかった。

モードを「Develop」としてROCmのRuntimeをインストールすると以下にROCm関連のバイナリが格納される。

C:\Users\(ユーザー名)\.lmstudio\extensions\backends\vendor\win-llama-rocm-vendor-v3\bin
C:\Users\(ユーザー名)\.lmstudio\extensions\backends\llama.cpp-win-x86_64-amd-rocm-avx2-1.9.2

この中身をパッチ版ROCmに差し替えるべく試行錯誤したが、以下のエラーで止まってしまう問題が解消できず断念。モデルのロードが始まり、GPUメモリ使用量が上昇するところまでは辿り着いたのだが。惜しい。

Failed to load last used model.
Error loading model.
(Exit code: 18446744072635812000). Unknown error. Try a different model and/or config.

まぁ、VulkanのRuntimeならば動作する(もちろんGPUで)ので良しとする。

ollama

LLMのダウンロードから推論まで手軽に試せるコマンドラインツール。OpenAI互換のAPIも提供され、OpenAI対応のエージェントのバックエンドとして使用できる。後述の「Open WebUI」と組み合わせて、ChatGPTライクなAIチャット画面を構築できる。

上記の「ROCmLibs~」を適用済みのフォークならば、exeをダウンロードしてインストールするだけ。ROCm非対応のAMD GPUで動作する。ROCmが正式対応しているGPUを使う場合は「本家」のバイナリを使うよう案内されているので注意。

Vulkanのブランチもあるようだ。試してみたかったがバイナリの配布はないようなので一旦断念した。後述するが非公式パッチのROCmよりVulkanのほうが速いかもしれないので、暇があったらBuildしてみたい。

Stable Diffusion web UI

画像生成AIと聞いたら最初に名前が出てくるスタンダードな存在。

上記の「ZLUDA」対応版のフォークならば、手順に従ってインストールするだけ。AMD GPUで動作する。「DirectML」を使うモードもあるが、パフォーマンスが悪いという情報があったので試していない。

後述の「Open WebUI」と組み合わせて、画像生成にも対応したAIチャット画面を構築することもできる。

パフォーマンス

LLM

「phpのjson_decode関数をrustで実装して。コードの解説もお願い。」と問いかけた場合のパフォーマンス。VulkanとCPUはLM Studioで、ROCmはOpen WebUI経由のollamaでそれぞれ実施した。ROCmとそれ以外でパラメータが異なる可能性はある。

パフォーマンス(tok/sec)
ランタイム gemma2:27b phi4:14b deepseek-coder-v2:16b qwen-2.5:3b
ROCm 4.53 7.06 25.17 28.86
Vulkan 4.42 7.95 32.69 34.05
CPU 3.23 6.11 25.49 26.35

遅いモデルでは「Vulkan≒ROCm>CPU」、速いモデルでは「Vulkan>ROCm≒CPU」という傾向。速いモデルの場合、ROCmはCPUと良い勝負となってしまうのが悲しい。非公式ROCmに問題があるのか?ここはollamaのVulkanバージョンを動かしてみたいところだ。

RAM使用量が20GBを越える「gemma2:27b」をオフロードなしで動かせるという点は、16GB VRAMのミドルクラスのdGPUに対するアドバンテージかもしれない。もっとも「この速度ではCPUと大差ないから意味がない」という見方もできる。

実行時のスクリーンショット

image.png
gemma2:27b/ROCm

image.png
gemma2:27b/Vulkan

image.png
gemma2:27b/CPU

image.png
phi4:14b/ROCm

image.png
phi4:14b/Vulkan

image.png
phi4:14b/CPU

image.png
deepseek-coder-v2:16b/ROCm

image.png
deepseek-coder-v2:16b/Vulkan

deepseek-coder-v2-16b-cpu.jpg
deepseek-coder-v2:16b/CPU

image.png
qwen-2.5:3b/ROCm

image.png
qwen-2.5:3b/Vulkan

image.png
qwen-2.5:3b/CPU

Stable Diffusion

  • v1-5-pruned-emaonly.safetensors

デフォルトで入っているチェックポイント(モデル)を使用した場合。

512x512(pixel) → 14.1秒
1024x1024(pixel) → 2分29.1秒

  • matrixHentai_v202.safetensors+Anya_Forger_-_Spy_X_Family.safetensors

アニメなチェックポイントに某ピンク髪エスパー幼女のRoLaを組み合わせた場合。

512x512(pixel) → 23.9秒
1024x1024(pixel) → 1分25.7秒

初めて使ったがシロウトが遊ぶには十分な速度だと思う。なお、追加モデルは https://civitai.com/ から取得可能だ。

実行時のスクリーンショット

image.png

image.png

image.png

image.png

実用的に使う

Open WebUI

ChatGPTやPerplexityのようなチャット形式のAIエージェントのオープン実装。バックエンドとしてollamaやOpenAI互換のAPIを使用できる。

Windows起動時にollamaとOpen WebUIを起動するよう仕掛けておけば、ローカルはもちろんリモートでも使用することができる。Stable Diffusionと組み合わせることもできるが、ollamaがモデルをロードした状態でStable Diffusionが動くのかが課題となりそうだ。

Continue

VS CodeとJetBrainsに対応したコーディング支援ツール。様々なバックエンドが使用できる。今回はollamaが別ホストで動作しているので、OpenAI互換APIとして連係させてみた。

歯車ボタンを押すと「config.json」がエディタで開くので以下の様に記述する。ollama相手の場合「apiKey」は何でも良い。

{
  "models": [
    {
      "title": "deepseek-coder-v2:16b(local)",
      "model": "deepseek-coder-v2:16b",
      "provider": "openai",
      "apiKey": "hoge",
      "apiBase": "http://192.168.***.130:11434/v1"
    },
    (以下略)

Continueはチャットする際にその場でモデルを選択できるのが良い。性能に制約があるローカルLLMでは「バカだが速いモデル」と「遅いが賢いモデル」を切り替えられると便利なのだ。

image.png
(チャット欄にモデル選択プルダウンが備わる)

バックエンドを選べるVS Code用の支援ツールとしては、Cline( https://cline.bot/ )もある。モデルを選り好みするものの、こちらもollamaと連係することができた。

しかし、Clineはファイルをゴリゴリ書き換えまくる押しの強いエージェントだ。控えめなContinueのほうがローカルLLMとの組み合わせに向くのではないかと思う。

2
1
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?