![見出し画像](https://assets.st-note.com/production/uploads/images/147227033/rectangle_large_type_2_922fc5e4f70320f9afbd7ccbd742e1e6.png?width=1200)
WebUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)
WebUIでOpenposeを試していて、やっと期待していた出力が出てきたので、設定をメモ。
みはるが投稿
— kongo jun (@jun_kongo) July 14, 2024
openposeでもけっこうそのまま出力できたかも pic.twitter.com/y7pmkAAiTY
Stable Diffusion上の設定
img2imgで以下のような設定で実行する。
![](https://assets.st-note.com/img/1720926821481-Og0zzTmS8W.png?width=1200)
![](https://assets.st-note.com/img/1720926846197-GjEGPY6cEp.png?width=1200)
![](https://assets.st-note.com/img/1720926863319-zWYZG4RHHM.png?width=1200)
RTX4090で7時間半で出力される。
ポイント
インプットとなる、動画の被写体の大きさで、出力される動画の質がまったく違う。
![](https://assets.st-note.com/img/1720927044734-6os1I3dmyk.png)
![](https://assets.st-note.com/img/1720927073116-ze0COL2FYn.png?width=1200)
「画像に対して被写体が大きい」で出力すれば、ページ上部の動画のように、質の高い動画が出力できるが、「画像に対して被写体が小さい」で出力すると、質が落ちると感じる。
みはるが投稿
— kongo jun (@jun_kongo) July 11, 2024
936x1160/SDXL/openpose/32FPS
解像度上げても微妙 pic.twitter.com/iA8fl1asks
結果
インプットの動画(controlnetで骨組みを抽出する動画)の被写体の大きさを大きめにすれば、かなり質の高い動画が出力できると思われます。
![](https://assets.st-note.com/img/1720927379933-abtHJse8wr.png?width=1200)
みはるが投稿
— kongo jun (@jun_kongo) July 14, 2024
openposeでもけっこうそのまま出力できたかも pic.twitter.com/y7pmkAAiTY
この記事が気に入ったらサポートをしてみませんか?