はじめに
EVO-X2でStable Diffusion web UIを動かしてみました
開発環境
- EVO-X2
- Python 3.10
- HIP SDK 6.2.4
導入
HIP SDK 6.2.4をインストールします
こちらのリポジトリをクローンします
git clone https://github.com/lshqqytiger/stable-diffusion-webui-amdgpu.git
cd stable-diffusion-webui-amdgpu
webui-user.batを編集します
HIP SDKとPython 3.10のパスを指定してください。
@echo off
REM HIP SDKのパスを設定(インストール場所に合わせて変更)
set HIP_PATH=C:\Program Files\AMD\ROCm\6.2
REM conda環境のPythonを直接指定
set PYTHON=C:\xxxx\python.exe
REM venvの作成をスキップ(conda環境に直接インストール)
set VENV_DIR=-
set SKIP_VENV=1
set GIT=
set COMMANDLINE_ARGS=--use-zluda
call webui.bat
実行
webui-user.batを実行します
webui-user.bat
EVO-X2でStable Diffusion web UI
— がちもとさん (@sotongshi) December 13, 2025
1枚 9.5秒 pic.twitter.com/sdg7xpHMvZ
こちらを参考に画像生成のモデルを変更します。
各モデルをダウンロードして、下記のフォルダに配置します。
sd_xl_base_1.0.safetensors → stable-diffusion-webui-amdgpu/models/Stable-diffusion
sd_xl_refiner_1.0.safetensors → stable-diffusion-webui-amdgpu/models/Stable-diffusion
sdxl_vae.safetensors → stable-diffusion-webui-amdgpu/models/VAE
SettingsのUser interfaceでsd_vaeを追加し、Apply Settings → Reload UIします

Stable Diffusion checkpointをsd_xl_base_1.0.safetensor
SD_VAEをsdxl_vae.safetensors
Refinerをsd_xl_refiner_1.0.safetensors
に設定してプロンプトを入力し、Generateします。
EVO-X2でStable Diffusion web UI
— がちもとさん (@sotongshi) December 13, 2025
sd_xl_base_1.0.safetensors
sd_xl_refiner_1.0.safetensors
sdxl_vae.safetensors
1枚 27.9秒 pic.twitter.com/4Y9S8t7SoV
1024 x 1024 でも生成してみました。
1024 x 1024、1分28秒 pic.twitter.com/KfXMXuHkY9
— がちもとさん (@sotongshi) December 13, 2025
お疲れさまでした。

