Firefly触ってみた
日々進歩しているAIによる画像生成。その走りとも言えるMidjourneyを触ったのが約8か月前。
この時はトライアルの25枚制限で終了。
その後、Stable Diffusionがオープンソース化したことでAIピカソなど生成アプリがどんどん出てくるようになったが、しばらくは触っていなかった。やっぱり枚数制限があったり、スマホの小さい画面でチマチマ作るのがあまり性に合わなかった。
しかし今回、AdobeからAI生成ソフトのβ版が出ているとのことで、久しぶりに触ってみることに。
TwitterのTLでもその使いやすさや新機能の注目度から目に入ってくることが多かった。普段PhotoshopやIllustratorを使うためにAdobe会員になっているので、そのアカウントからPCでそのまま使用。回数も無制限!
前回のMidjourneyで試したのは「自分の絵柄をどこまで再現出来るか?」だった。絵描きとしては気になるところ。
Firefryもテキストによる命令文を入力する方式だが、インターネットの膨大な画像から参照する著作権的にグレーな従来の生成方式とは違い、Adobeにストックされている写真素材を参照して画像を生成するらしい。(これがシロかどうかは諸説あるよう)
ちなみにこれが8か月前にMidjourneyを使って「武装する猫」を再現すべく作り出した記念すべき最初の4枚。
でもってこれがFireflyを使用した武装猫。
命令文に大きな違いはない。すごい。8か月で随分と進歩している。日進月歩の世界。「再現」はやはり難しく、別路線になってはいるが…。
どうもデフォルトでバタ臭くなる。質感表現の艶めかしさは流石。
Fireflyの特徴として、生成した画像に後からテイストを変える指示を出すということも可能。これは色味を抑えるために白黒に。
こういう風に、製品写真っぽくペット用の鎧を生成した方がイイ感じかもしれない。
テキストによる生成の他、写真のレタッチや置き換え機能「ジェネレーティブフィル」も試した。
これは切り抜きとその部分を埋めるためのごく簡単な命令を繰り返しただけ。被写体だけを残した背景の切り抜きをワンタッチでかなり正確に勝手にやってくれる。
背景切り抜き→castle(なぜか岩場に)→お腹切り抜き→dress→頭頂部切り抜き→ribbon→手の人参切り抜き→flower。
そしてこのやり方を使って
テキストよりこっちの方が自作再現度が高いような。
今後、鎧デザインの参照に使ったりは出来るかもしれない。
もっと徹底しないと雑コラ感は否めないにしても、一定以上のクオリティの画像を短時間で何パターンも出せるのはすごい。フェイク画像の生成ハードルは著しく下がっているだろう。楽しかった反面、そういう不穏さは感じた。そしてAI生成のやりすぎでTLの可愛い動物たちの画像もAI画像に見えてきてしまったのだった。現実と空想の境目はいずこ。
この記事が気に入ったらサポートをしてみませんか?