Stable Diffusion, Midjourney, DALL-E 3 生成画像相互比較(2)
皆さん、こんにちは。Browncatです。
Stable Diffusion, Midjourney, DALL-E 3 生成画像を相互比較する記事の後編です。
前編は下記のリンク先をご覧ください。
事例2:液体金属に浮いて寝そべっている女性
前編ではテスト向けの比較的生成が簡単な衣装・背景プロンプトを用意しました。
後編では、液体金属に浮いて寝そべっているという、現実には存在しない映像で比較します。
背景の「液体金属」は、Nick St. Pierreさんの以下のテクスチャプロンプトを利用させていただきました。
さらに衣装に関するプロンプトを付け加え、全体としてはこうなります(Midjourney V6の例)。
それでは、各プラットフォームの生成例を確認します。
Stable Diffusion
Stable Diffusion 1.5(Yayoi_mix V2.8b)での生成結果は、以下の通りです。
なお、SD(Stable Diffusion)系では、液体金属に関するプロンプトに1.4程度の重みをかけます。すなわち
またSDXLでの生成結果は、以下の通りです。生成の仕方は前編と同じで、dreamshaperXLとfuduki_mixを併用しています。
今回のプロンプトはもともとはMidjourneyを前提としたものですが、以上のように、SD系にも応用できることがわかりました。
Midjourney
SD系と同じ衣装・背景プロンプトを用いて、Midjourney V6で生成します。上述のように、このプロンプトはもともとはMidjourney V6を前提に書かれたものです。
今回はまず(V6でなく)V5.2の結果を示します。
続いてV6で生成してみます。
V5.2よりV6のほうが生成しやすいことがわかりました。
V6のパラメータセットに「stylize」というのがありますが、この値が小さいほど、人物の金属への一体度が増します。
DALL-E 3
続いて、同じ衣装・背景プロンプトを用いて、OpenAIの画像生成AI「DALL-E 3」で生成します。
今回も「ChatGPT 4」と「Bing Image Creator」と両方生成します。
まずはChatGPT 4の適用結果です。
続いてBing Image Creatorによる生成結果です。
このようにChatGPT 4とBing Image Creatorでは、大きな違いは見当たりませんでした。
結論(後編)
後編の例では、Midjourney V6以外ではまともに再現できないと思っていましたが、実際にはどのプラットフォームでも、共通のプロンプトで同一の効果を得ることができました。
もちろん、プラットフォームによって絵柄が異なり、同一プラットフォームでもバージョンやプロバイダが違うと、やはり絵柄が変わります。
以上、最後までお付き合いくださり、ありがとうございました。
この記事が気に入ったらサポートをしてみませんか?