![見出し画像](https://assets.st-note.com/production/uploads/images/140949632/rectangle_large_type_2_ffe10a00cddef345d7113a3500b9a8b0.png?width=800)
【ComfyUI】イラストにレイヤー構造を持たせて背景の削除などができる、layer diffusionを試してみた
こんばんは!
AIイラストがレイヤーで管理できたら、live2dのモデルとかを簡単にイラストから作れるんじゃないかと調べていたら、レイヤー構造を持たせることができる拡張機能を見つけたので、早速試してみました!
ComfyUIをお持ちでない方は以下の記事をご覧ください!
拡張機能をインストール
まずは拡張機能を検索してインストールしていきましょう。
拡張機能の検索項目で「layerdiffusion」と入力して、出てきた拡張機能をインストールします。
![](https://assets.st-note.com/img/1715948094064-6LbyTxNvLx.png?width=800)
早速使ってみた
①前景だけの表示(背景の削除)
最初はシンプルなものから試してみます!
左クリックの検索で「Layer Diffuse Apply」ノードを探して、checkpointに接続します。
configで「SDXL」と「SD1.5」を切り替えることができます。
![](https://assets.st-note.com/img/1715948260428-3rhHWKWwnl.png?width=800)
次にVAE Decodeを通したimageとlatentを繋ぐ「Layer Diffusion Decode(RGBA)」ノードを追加します。
![](https://assets.st-note.com/img/1715948571357-7h6S5tluPb.png)
この状態で生成すると…。
おお、きれいに背景が切り取られていますね!
![](https://assets.st-note.com/img/1715948765194-rl4x7Cx3aJ.png?width=800)
![](https://assets.st-note.com/img/1715948758052-mKSJh1nVoA.png?width=800)
「Layer Diffusion Decode(RGBA)」を繋ぐ前と比較すると…。
背景がきれいに抜かれているのがわかりますね!
これがあれば、photoshopでわざわざ背景を切り抜いたりする必要もなさそうですね!
![](https://assets.st-note.com/img/1715949026570-963r3bGGMd.png?width=800)
②①+マスクデータとか色々
先ほどの「Layer Diffusion Decode(RGBA)」を削除して、今度は「Layer Diffuse Decode」を選択します。
これも「SDXL」と「SD」を切り替えることができます。
![](https://assets.st-note.com/img/1715949386948-6fpeSVVET2.png)
そうしたら、早速生成をしていきましょう!
じゃん!
4枚もあったら何が何だかわからないですよね。
順番にご紹介します。
![](https://assets.st-note.com/img/1715949556082-xP3ScqqK3E.png?width=800)
①「Layer Diffuse Decode」を使っていないイラスト
![](https://assets.st-note.com/img/1715949603118-knh8oSnTkf.png?width=800)
②「Layer Diffuse Decode」直後のイラスト
輪郭がほんのり光っていますね。
![](https://assets.st-note.com/img/1715949662324-yjBVpw6lpI.png?width=800)
③マスクデータ
しっかりと髪の毛も入っていますね。
![](https://assets.st-note.com/img/1715949698392-OPExgYIJ0z.png?width=800)
④背景削除後のイラスト
髪の間とかは少し残っている感じがするけれど、他の部分はほとんど綺麗に削除されている!
すごい!
![](https://assets.st-note.com/img/1715949729657-9iGS75E5Vf.png?width=800)
③前景と背景を合成する
まさか、まさかのイラストとイラストを合成することができるようなのです!
まずは合成したいイラストをVAEでエンコードして「Layer Diffuse Cond Apply」というノードを出して接続します。
configの項目は「Foreground」にしましょう。
modelはcheckpointを直接つないで大丈夫です!
プロンプトには背景に表示したいものを入力しましょう!
![](https://assets.st-note.com/img/1715950534090-msNL4XbMfX.png?width=800)
以下生成してみたイラストになります。
確かに合成ができていますが、ぼけてしまっていますね。
でも、これはこれでありですね!
![](https://assets.st-note.com/img/1715951194577-Kkbgeq6wi6.png?width=800)
試しに、ドット絵と合成したらどうなるのでしょうか?
ちゃんとできていますね。
調べたら、どうやらモデルとの相性があるらしく、モデルよっては今回のようにぼけてしまうようです。
![](https://assets.st-note.com/img/1715951480179-sOArz8HKX3.png?width=800)
④背景を前景に合成する
今度は先ほどとは逆の背景に前景のイラストを生成していれるのを試してみます。
configの項目を「Background」にして、イラストを生成すれば大丈夫です!
![](https://assets.st-note.com/img/1715951807921-inWXiSJzTv.png?width=800)
うまく合成できましたね。
先ほど、ぼけてしまったので、今回はモデルを変更してみましたが、うまくできました。
![](https://assets.st-note.com/img/1715952482761-CvzlQvJNKE.png?width=800)
使ってみた感想
有料ソフトで画像修正を行っていましたが、その手間もなくなるかもしれないくらいの高性能ですね!
特に背景の切り抜きはphotoshopbなどを使ってもなかなか難しいところではあるので、非常にありがたいですね!
それでは皆様、よき創作ライフを…!
この記事が気に入ったらサポートをしてみませんか?