はじめに
ネットサーフィンをしてたらStable Diffusionという素晴らしいものを見つけたので、
GPUの環境でも使えたらいいなと思い調べてみました。
参考
zennというサイトのこちらの投稿を参考にさせて頂きました。
上記ではWSL2やdockerを用いて環境を構築しておりますが、
anacondaでもできるんじゃないと思ったので試行。
gitからソースをダウンロード
こちらのページより右上の緑ボタンのCodeをクリック→Download ZIP。
Downloadしたzipを解凍して完了。
anacondaで環境構築
新しい仮想環境を作成し、解凍したzipフォルダにcdして、コマンド実行
conda create -n py39 python=3.9 # 新規環境の作成
cd path/to/your/unpack_zip # 解凍したzipのディレクトリに移動
pip install -r requirements.txt # 関連パッケージの取得
実行
acnadonda promptを管理者権限で実行。(管理者権限でないとエラーを吐いて終了しました)
gitのREADMEに従い、コマンドを実行
cd path/to/your/unpack_zip # 解凍したzipのディレクトリに移動
python demo.py --prompt "shark in the deep sea"
数分たったら、解凍したzipファイルの中に"output.png"ができているので見てみると
って感じの画像ができてました。
油絵チックで可愛くないし、全然深海じゃないけど、
パラメータは何もいじってないので伸びしろはあるはず。
ソースコードやREADME読んでまた何かあったら追記しようかなと思います。
余談
かっこいいリュウグウノツカイの画像が欲しくて
python demo.py --prompt "regalecus glensne"
と実行したら白い昆虫の画像が生成され発狂しかけました。
感想
とりあえず動かすことができてよかったです。
一方で、一枚の画像を生成するのに5分弱程度かかるので、
本当に雰囲気を確かめるぐらいの使用感かなと思いました。
image2imageも試してみたいです。以上
追記
HagginFaceとGoogleColabを使ってgpu環境で実行できるようです。
cpu使ってローカルでやるぐらいならこっちの方がよさそう。