見出し画像

手動i2iやってみた話

今日は手動でi2iやってみた話をします。
既存の動画をベースにキャラだけ変えて同じ動きを再現させられないかなー?という試行錯誤の歴史の話です。

プロンプトとシード固定して、動きを何かしらでとってきたらできるんじゃね?と安直に思って、当時ググったらそんな感じでStableDiffusion Web UIのbatchでやってる人がいたのでやってみました。

まずこの動画を写真に分解します

とりあえず今回のモデルはこの子でやりました(たしか)
当時Silver Exhibitionというハッシュタグで銀色をモチーフとした絵を描いたらどーのこーのというイベントがあり、楽しく参加させていただきました。
名前とか適当に付けて、ChatGPT様に紹介文を用意してもらったのですが、1ミリも受賞にカスリもしませんでした…
でも楽しかったですし、受賞者の絵はとてもすごいやつばかりでした。
まだ他の色でやってるはずなので、動画枠とかあれば、参加したいなと思ってます。

で、たしか、i2i batchでA-Detailerを顔につけてバチバチ作った結果がこちら

お?なんかいい感じじゃね?(というかここまでに何回も試行錯誤してました)

で、これをまた動画結合します。
結合にはffmpegなんちゃらという定番ソフトを使いました。

動いてはいるものの、ちらつきはんぱねーな!!!という感じですね。
あと、ここでは伝わりにくいのですが手間はんぱねーな!!!と思いました。
Paperspace環境なのもあって、いちいちコレを手動でやるのは…と

ただ、記事書いてて過去を振り返って気が付いたのですが、A-detailer使ってるので顔めっちゃキレイ(笑)

この後、AnimateDiff-prompt-travelを使い始めるのですがこのアプリはA-detailer非対応。
しかし、ControlNetがもろもろ使えるので、かなり再現性やちらつきがなくなります。

ただ、人物が小さい絵では、あまり人の顔をキレイにできなくて、そのためだけにアップスケールしてるのですが、時間かかりすぎてて詰んでますあれ

あれ?ってことはこのロジックにA-Detailerかませれば…

というわけで、次回に続きます。

この記事が参加している募集

#やってみた

36,591件

この記事が気に入ったらサポートをしてみませんか?