見出し画像

SDXL0.9をローカルで動かすテスト

他のツールがどうしてもうまく動かせなかったので、
とりあえず備忘録だけ。

ここに飛んで、

下の方にあるDirect link to download をポチる。
※普通にGitで落とした方がいいみたい!(僕は何故か最初やったときエラー吐いた)

7zip形式なのでWINRARとかで解凍しようね

解凍するとこんなフォルダ構成になってる

ここから、ComfyUI のフォルダ開くと見慣れた構成が出てくる。
models → checkpoints の中にsd_xl0.9のモデルを入れる。

モデルはここで申請したらダウンロードできるようになりました


次にこのページからJsonをダウンロード

わかり辛いけどdownloadボタンがある

適当な場所に保存。

ここまでできたら、ComfyUI_windows_portableの中に入ってるrun_nvidia_gpu.bat
を起動。webでなんか配線みたいなのが並んでる画面が出てくる。
そこにさっき落としてきたJsonファイルをドラッグドロップ。

するとこういう画面になる

で、僕が開いた時にはなってたのですが、左下の緑と、左上の青いところが0.9のbaseモデルになってることを確認。

で、その真ん中のところでpromptとNegativeを入力。

緑がprompt、茶色がNegativeprompt

画面の中央部分がいつもやってるCFGとかSeedとかstepとかの設定で、
ImageSizeはちょっと小さい左下の枠で管理。
上部分はあんまりよくわかってない!Hires系の設定に似てる。
(調べろ)
ただscaleの欄がないので、scale1でやってるような感じかな?所感。

batch_size4とかにしたらくそ重たかったので1固定がいいかも(設定が悪いかも

で、適当に設定したら↓の窓でQueue Promptって押したら実行って感じ。Ctrl+Enterでもできた

そうすると、ガリガリ―っと動いてリザルトに画像が出てきました。ComfyUI_windows_portable\ComfyUI\outputに保存されてた

ギャル認識してるっぽいのでダンボールタグが効いてるかも?

最初の出力だけmodelを読み込んでるのか、バカみたいに時間がかかった(PC止まったかと思ったけど、10分くらいしたら動いてた)

なんか変に時間かかるので、もしかしたら設定がまだ抜けてるかもしれないですが、とりあえずできたので終わり。

※追記
baseとrefinerの違いは、
baseってのが基礎を作るモデルで、refinerが調整をするモデルっていう感じらしい。
もしかしたら学習をいっぱいするのはrefinerの方がいいのかも?
baseは19層でrefinerは25層らしいぞっ!(有識者が言ってた!

なのですが、どうもrefinerが現状ではあんまり良い効果を出しているとは思えないので、今はbaseしか使っておりません。

baseだけでよくね?っていう

今のところTwitterで上げてる画像などはrefiner使っておりませんよ!

ComfyUIのあれこれはこちらの記事で


SD.Nextの方が簡単に導入は出来て、Automatic1111を使っている人からすると慣れ親しんだ感じですぐ使えると思います。
導入はこちらの記事。

ただ、SD.Nextはbaseモデルのみ使用可能で、学習モデルは現状使えないみたいです。

あと完全攻略とかいう胡散臭い文言で釣っている怪しい記事

モナリザおもしろすぎる。

れれみーみでした。

この記事が気に入ったらサポートをしてみませんか?