最近の記事

WebUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)

WebUIでOpenposeを試していて、やっと期待していた出力が出てきたので、設定をメモ。 Stable Diffusion上の設定 img2imgで以下のような設定で実行する。 RTX4090で7時間半で出力される。 ポイント インプットとなる、動画の被写体の大きさで、出力される動画の質がまったく違う。 「画像に対して被写体が大きい」で出力すれば、ページ上部の動画のように、質の高い動画が出力できるが、「画像に対して被写体が小さい」で出力すると、質が落ちると感じ

    • ComfyUI・SDXL・AnimateDiffの高解像度・高フレームレートの動画作成(別パターン)

      以下の記事で、SDXLモデルを使ったAnimateDIffの動画を高解像度・高フレームレートで出力する手順を紹介している。 この記事では、「AnimateDiff Loader」ノードの「beta_schedule」を「LCM」に変更した時の出力もオススメのため、それを紹介する。 ワークフロー 上記のワークフローのjsonファイル。 Qiita側のワークフローのjsonファイル。 結果 RTX 4090であれば、生成時間は20~30分で出力される。

      • ComfyUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)

        初めてSDXLのAnimateDiff成功したので、メモを残す。 ワークフロー Motion Module SDXLのControlNet Model 結果

        • Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ3)

          試したStable Diffusionの設定をメモする。 一応AnimateDiffの構築手順 以下みたいな手順でAnimateDiffとControlNetの環境を構築する。 Vroidを使ったモーション動画作成 Vroidにモーションを与えてVroid HUBの機能で動画を作成する。 こんな感じの動画が作成できる。 Stable Diffusion上の設定 txt2imgで以下のような設定で実行する。 結果 こんな感じの動画が出力される。

        WebUIでControlNet(Openpose)を使ったSDXLのAnimateDiff(メモ)

          Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ2)

          試したStable Diffusionの設定をメモする。 一応AnimateDiffの構築手順 以下みたいな手順でAnimateDiffとControlNetの環境を構築する。 Vroidを使ったモーション動画作成 Vroidにモーションを与えてVroid HUBの機能で動画を作成する。 こんな感じの動画が作成できる。 Stable Diffusion上の設定 img2imgで以下のような設定で実行する。 ControlNetのPreprocessorを色々変

          Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ2)

          Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ1)

          試したStable Diffusionの設定をメモする。 一応AnimateDiffの構築手順 以下みたいな手順でAnimateDiffとControlNetの環境を構築する。 Vroidを使ったモーション動画作成 Vroidにモーションを与えてVroid HUBの機能で動画を作成する。 こんな感じの動画が作成できる。 Stable Diffusion上の設定 txt2imgで以下のような設定で実行する。 (Xのテキストは見逃していただいて、)こんな感じの動画

          Vroidを使ってStable Diffusion Web UIのAnimateDiff(メモ1)