![見出し画像](https://assets.st-note.com/production/uploads/images/102747441/rectangle_large_type_2_81526157fe47219d8b207794ac1d1817.png?width=1200)
Stable Diffusion 備忘録-インストール
画像生成AIに触れる機会ができたので、備忘録&成果報告用に色々とまとめてみる。midojournyやStable Diffusionなどあるが今回はStable Diffusionを使用する。
※ただの備忘録なので別サイトの内容を丸々コピペして加筆してたりします
Stable Diffusionとは
画像生成AIのひとつ。公式サイトの説明では、Diffusion Modelというものを使ってテキストから画像を生成できるAIのこと。
Stable Diffusion is a latent text-to-image diffusion model capable of generating photo-realistic images given any text input, cultivates autonomous freedom to produce incredible imagery, empowers billions of people to create stunning art within seconds.
ここではStable Diffusionをベースとしたweb UIであるStable Diffusion web UI(通称:AUTOMATIC1111)を使用する。
AUTOMATIC1111を選択した理由として、オリジナル機能はそのままでありながらweb UIであることで操作難易度が下がること、拡張機能が豊富に用意されていること、環境構築が簡単なことが挙げられる。
導入
Windows11環境にて構築。ちなみにローカル環境で動かすためGPU性能はかなり求められるらしい。演算能力よりもメモリ搭載量基準で価格を選ぶと良いのだとか。(自身はmsi GAMING X TRIO GEFORCE RTX 3070 8GBを使用)
インストールするにあたって参考にしたサイト
なお、ここから記載することはほぼこの記事に書いていること通りなのであしからず。
インストール
必要なもの
・Python
・Git
・AUTOMATIC1111
・Python
2023年3月時点では、python3.10.6のインストールが推奨されているらしい。
ここからバージョンを探してインストールする。
インストール時に”Add Python 3.10 to PATH”にチェックを入れる必要があると記載の記事があったのでとりあえず押しておいた。
・Git
バージョン指定はないらしいので最新版をインストール。
インストール時に結構聞かれるが、よくわからないまま全部そのまま続けてインストールしても問題なかった(みんなはちゃんと読もう!)。
・AUTOMATIC1111
これだけwebからDLしてインストールではなく、コマンドでインストール。
インストールしたいディレクトリに移動し、右クリック→Git Bash Hereでターミナルを開く。
ターミナルで下記コマンドを入力し、AUTOMATIC1111をDLする。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
ダウンロードが完了するとstable-diffusion-webuiというディレクトリが作成される。
起動
起動はとても簡単。
webui-user.bat をダブルクリックするだけ。
初回のみ必要なライブラリをダウンロードしてインストールしてくれる。(10分程度かかった)
![](https://assets.st-note.com/img/1681284916623-uk6FqutVb1.png?width=1200)
コマンド内にhttp://127.0.0.1:7860というリンクが表示されたらアクセスする。(localhost:7860でもOKらしい)
このような画面が表示されれば起動完了!
![](https://assets.st-note.com/img/1681201614812-lUJvCKnESX.png?width=1200)
なお、次回以降も同様の手順を踏めば起動できる(起動時間は1分程度)
使い方
左上にプロンプトを入力し、右上のGenerateを押すと画像が生成される。
Batch Sizeを変更することで一度に生成する画像を増やすことができる。
更に詳しい使い方は別記事で。
macOSでの環境構築について(失敗)
M1mac環境での構築もやってみたが、インストールはできたものの画像の生成ができず断念。
基本的にはこの記事の記載通りに進めればインストールはできるはず。
(M1、M2などのAppleシリコンに限る)
ちなみに2023年4月現在でPython(?)のバージョンによるインストール中のエラーが出た。後半の’/stable-diffusion ~ upgrade pip’のコードをそのまま実行することで解決した。(詳細は不明…)
WARNING: You are using pip version 20.2.3; however, version 23.0.1 is available. You should consider upgrading via the '/stable-diffusion-webui/venv/bin/python3 -m pip install --upgrade pip' command.
関連性がありそうな記事
困ったときのエラー解決メモ(たぶんここを見れば大抵のエラーの解決策が書いてあるのでは)
自身のmac環境で画像が生成されなかったのは、こちらのエラーが出たため。
RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
グラフィックカードがhalf floats(半精度浮動小数点数)の計算に対応していないというもの。
対処としてwebui-user.batの起動時の引数にいくつかのコードを追加すれば直るとの記載があるが、直らなかった(なんで)。
とはいえ、自身のWin環境が圧倒的にGPUが強く、画像生成時間も短いのでmacでできていたとて使わなかった気がする…
まとめ
とりあえず導入はできたので適当にプロンプトを打ち込んで画像を生成できる環境ができた。
次はモデルを色々変えてみる予定。
モデルとは、AIが学習してきた知識の塊というべきもので、このモデルの中に過去に学んだ画像の情報が含まれている。モデルが異なると生成される絵もテイストが大きく異なってくる。
ちなみにデフォルトで入っているモデル(v1-v5 pruned emaonly)で<cute girl>と入力して初めて生成された画像がこれ↓
![](https://assets.st-note.com/img/1681200629235-7x9yM8qRyd.png)
アニメっぽくしようとした最初の画像がこれ↓
![](https://assets.st-note.com/img/1681200722027-lWdz55odnb.png)
まぁそうだよねといった結果だったので、しばらくはモデルを変えつつプロンプトの研究をして、何を入力したら神絵師が描くような絵が生成されるのかを探っていきたい。
2023/4/10
この記事が気に入ったらサポートをしてみませんか?