はじめに
「GPU に対応する CUDA やら cuDNN やら PyTorch やらのバージョンを調べて、手動でインストールしたけど、なぜか上手く動かない...」
というトラブルがあると禿散らかりそうになるので、環境構築の類は全て Docker で済ませた方が楽だと思っています(個人の感想です)
というわけで、
リークされたNovelAIのデータでローカル実行してみた
の環境構築までを Docker で行いました
(そういうGitHubのリポジトリがあるので、ほとんどそれの紹介みたいなもん)
上の記事にも書かれてるけど、リークされたモデルをダウンロードして動かすのはかなりグレーな行為なので、やっちゃダメだよ
本記事はあくまで環境構築の一例を紹介するだけだよ
環境の一例
OS : Ubuntu 22.04
GPU : NVIDIA GeForce RTX 2060
RAM : 24GB
※Windows の人も WSL2 を使えばほぼ同じ手順で動くはず
1.A【Ubuntuユーザ向け】Docker と NVIDIA Container Toolkit をインストール
https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html
の通りにすれば、Docker と NVIDIA Container Toolkit をインストールできる
1.B【Windowsユーザ向け】Docker と NVIDIA Container Toolkit をインストール
https://learn.microsoft.com/ja-jp/windows/ai/directml/gpu-cuda-in-wsl
https://docs.nvidia.com/cuda/wsl-user-guide/index.html#getting-started-with-cuda-on-wsl
の通りにすれば大丈夫なはず、しらんけど
2. Stable Diffusion WebUI Docker を動かす
Docker で全部やってくれるリポジトリが既にある
感謝しながら使わせて頂く
git clone https://github.com/AbdBarho/stable-diffusion-webui-docker.git
cd stable-diffusion-webui-docker
docker compose --profile download up --build
docker compose --profile auto up --build
上記の手順で起動して、デフォルトのモデルが正常に動作することを確認する
※元の記事ではbatを編集してxformersが云々...と書かれてたけど、Ubuntuだとどうなるのかよく分からんのでやってない。Ubuntuでも動くの?
3. モデルを追加する
リークされたNovelAIのデータでローカル実行してみた
の手順でできる
ソースを修正しなくても、Hな画像はちゃんと出力される
Web上のプルダウンから選択することで、モデルを切り替えられる
※モデルロード時に落ちる人はRAMが足りてないかも、ckptだけでもかなりデカいからね
おわりに
環境構築の一例を紹介しました
環境構築をしてみたい!と思った人は、環境構築をしてみてください
関連リポジトリ
- https://github.com/CompVis/stable-diffusion
- https://github.com/AUTOMATIC1111/stable-diffusion-webui
- https://github.com/AbdBarho/stable-diffusion-webui-docker
- https://github.com/AbdBarho/stable-diffusion-webui-docker/wiki/Setup