見出し画像

WebUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)

WebUIでOpenposeを試していて、やっと期待していた出力が出てきたので、設定をメモ。

Stable Diffusion上の設定

img2imgで以下のような設定で実行する。


設定いち


設定に


設定3

RTX4090で7時間半で出力される。

ポイント

インプットとなる、動画の被写体の大きさで、出力される動画の質がまったく違う。

画像に対して被写体が大きい


画像に対して被写体が小さい

「画像に対して被写体が大きい」で出力すれば、ページ上部の動画のように、質の高い動画が出力できるが、「画像に対して被写体が小さい」で出力すると、質が落ちると感じる。

結果

インプットの動画(controlnetで骨組みを抽出する動画)の被写体の大きさを大きめにすれば、かなり質の高い動画が出力できると思われます。

img2imgの元画像


この記事が気に入ったらサポートをしてみませんか?