混合順
記事一覧
WebUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)
WebUIでOpenposeを試していて、やっと期待していた出力が出てきたので、設定をメモ。
Stable Diffusion上の設定
img2imgで以下のような設定で実行する。
RTX4090で7時間半で出力される。
ポイント
インプットとなる、動画の被写体の大きさで、出力される動画の質がまったく違う。
「画像に対して被写体が大きい」で出力すれば、ページ上部の動画のように、質の高い
ComfyUI・SDXL・AnimateDiffの高解像度・高フレームレートの動画作成(別パターン)
以下の記事で、SDXLモデルを使ったAnimateDIffの動画を高解像度・高フレームレートで出力する手順を紹介している。
この記事では、「AnimateDiff Loader」ノードの「beta_schedule」を「LCM」に変更した時の出力もオススメのため、それを紹介する。
ワークフロー
上記のワークフローのjsonファイル。
Qiita側のワークフローのjsonファイル。
結果
ComfyUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)
初めてSDXLのAnimateDiff成功したので、メモを残す。
ワークフロー
Motion Module
SDXLのControlNet Model
結果
Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ3)
試したStable Diffusionの設定をメモする。
一応AnimateDiffの構築手順
以下みたいな手順でAnimateDiffとControlNetの環境を構築する。
Vroidを使ったモーション動画作成
Vroidにモーションを与えてVroid HUBの機能で動画を作成する。
こんな感じの動画が作成できる。
Stable Diffusion上の設定
txt2imgで以下の
Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ2)
試したStable Diffusionの設定をメモする。
一応AnimateDiffの構築手順
以下みたいな手順でAnimateDiffとControlNetの環境を構築する。
Vroidを使ったモーション動画作成
Vroidにモーションを与えてVroid HUBの機能で動画を作成する。
こんな感じの動画が作成できる。
Stable Diffusion上の設定
img2imgで以下の
Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ1)
試したStable Diffusionの設定をメモする。
一応AnimateDiffの構築手順
以下みたいな手順でAnimateDiffとControlNetの環境を構築する。
Vroidを使ったモーション動画作成
Vroidにモーションを与えてVroid HUBの機能で動画を作成する。
こんな感じの動画が作成できる。
Stable Diffusion上の設定
txt2imgで以下の