見出し画像

stable diffusionでanimatediffを試してみた。

stable diffusionでアニメと検索をすると、大体でてくる「animate diff」を実際に試してみました。


animate diffの導入

導入まで

Extensions」のタブを開いて、「Installe from URL」を選択します。
選択後「URL for extension's git repository」に「https://github.com/continue-revolution/sd-webui-animatediff.git」と入力します。

入力が完了したら、「Install」を選択します。
そのあと、「Installed」タブを開いて、「Apply and restart UI」を選択して反映させます。
txt2img」タブや「img2img」タブに「Animatediff」が表示されればOKです。

使い方

今回は「txt2txt」で「Animatediff」を利用します。

まずは生成したいアニメーションのプロンプトを入力します。

プロンプト…小さくて見えない

次に「Animatediff」を選択して、タブを開きます。
開いたら「Enable AnimateDiff」にチェックを入れます。
→これにチェックを入れることで、「Animatediff」を利用できるようになります。

そうしたら次に「Motion module」の「Model」を次のURLからダウンロードします。

リンクに飛んだら以下のファイルをダウンロードします。

ダウンロードが完了したら「stable-diffusion-webui\extensions\sd-webui-animatediff\model」以下にダウンロードした「Model」を入れてください。

それが終わったら、各種設定を行います。

Number of frames: フレーム数。FPSの数割った秒数分の動画が生成されます。
FPS: アニメーションの1秒に使う画像数。
Display loop number: アニメーションのループ回数(0でよいと思います)
Save format: 出力形式

全ての設定が完了したら、「Generate」ボタン押すと…。
アニメーションが生成されます。

※mp4で生成するときにpythonでエラーが発生することがあります。
筆者は以前、それに遭遇して手も足も出なかったので、「animatediff」をあきらめていたのですが、今日になって突然動いたので、思わず記事にしてしまいました。

もしも、インストール後に動かない場合はgitのissueを確認してみると、同じような方がいるかもしれませんので、そちらをご参考ください。

https://github.com/continue-revolution/sd-webui-animatediff.git

生成時の注意点

「Hires.fix」を設定してスケールアップをしたら、生成まで8時間かかりました。
↓生成した動画

アニメーション生成時は時間がある時か、高画質を求めるときはある程度のスペックが求められそうです。
今回生成に使ったPCのスペックは以下のような感じです。参考までに。

CPU ・Ryzen9 7500x
グラボ ・RTX-4070 12GB
メモリ ・32GB x 2

また、あまりにも高画質で出そうとするとメモリエラーになる可能性もあるので、その場合は「--xformers」を入れるなどをしたほうがよさそうです。
私の場合も入れないとメモリエラーになりました。

ただ、高画質の動画のほうがきれいだし、いいですよね。買ったばかりなのに、もうグラボを新調したい…。

使ってみた感想

Control netなどを使うことで、より安定したアニメーションを生成することができるみたいなので、「Suno」と合わせて、mvアニメーションをいくつか作ってみたいなと感じました。

AIとのアニメーションの親和性はとても高くて、ワクワクしますね。

どんどん創作を重ねて、レベルアップしていきたいですね!

次回animatediffを使うときはControl net等を使って、クオリティの高いアニメーション生成に挑戦したいと思います。
アニメーションを生成していたのですが、記事に間に合いませんでした…。

それでは、良い創作ライフを…!

この記事が気に入ったらサポートをしてみませんか?