SDXL0.9をローカルで動かすテスト
他のツールがどうしてもうまく動かせなかったので、
とりあえず備忘録だけ。
ここに飛んで、
下の方にあるDirect link to download をポチる。
※普通にGitで落とした方がいいみたい!(僕は何故か最初やったときエラー吐いた)
解凍するとこんなフォルダ構成になってる
ここから、ComfyUI のフォルダ開くと見慣れた構成が出てくる。
models → checkpoints の中にsd_xl0.9のモデルを入れる。
モデルはここで申請したらダウンロードできるようになりました
次にこのページからJsonをダウンロード
適当な場所に保存。
ここまでできたら、ComfyUI_windows_portableの中に入ってるrun_nvidia_gpu.bat
を起動。webでなんか配線みたいなのが並んでる画面が出てくる。
そこにさっき落としてきたJsonファイルをドラッグドロップ。
で、僕が開いた時にはなってたのですが、左下の緑と、左上の青いところが0.9のbaseモデルになってることを確認。
で、その真ん中のところでpromptとNegativeを入力。
画面の中央部分がいつもやってるCFGとかSeedとかstepとかの設定で、
ImageSizeはちょっと小さい左下の枠で管理。
上部分はあんまりよくわかってない!Hires系の設定に似てる。
(調べろ)
ただscaleの欄がないので、scale1でやってるような感じかな?所感。
で、適当に設定したら↓の窓でQueue Promptって押したら実行って感じ。Ctrl+Enterでもできた
そうすると、ガリガリ―っと動いてリザルトに画像が出てきました。ComfyUI_windows_portable\ComfyUI\outputに保存されてた
最初の出力だけmodelを読み込んでるのか、バカみたいに時間がかかった(PC止まったかと思ったけど、10分くらいしたら動いてた)
なんか変に時間かかるので、もしかしたら設定がまだ抜けてるかもしれないですが、とりあえずできたので終わり。
※追記
baseとrefinerの違いは、
baseってのが基礎を作るモデルで、refinerが調整をするモデルっていう感じらしい。
もしかしたら学習をいっぱいするのはrefinerの方がいいのかも?
baseは19層でrefinerは25層らしいぞっ!(有識者が言ってた!
なのですが、どうもrefinerが現状ではあんまり良い効果を出しているとは思えないので、今はbaseしか使っておりません。
今のところTwitterで上げてる画像などはrefiner使っておりませんよ!
ComfyUIのあれこれはこちらの記事で
SD.Nextの方が簡単に導入は出来て、Automatic1111を使っている人からすると慣れ親しんだ感じですぐ使えると思います。
導入はこちらの記事。
ただ、SD.Nextはbaseモデルのみ使用可能で、学習モデルは現状使えないみたいです。
あと完全攻略とかいう胡散臭い文言で釣っている怪しい記事
モナリザおもしろすぎる。
れれみーみでした。
この記事が気に入ったらサポートをしてみませんか?