見出し画像

[ライブ配信]Luma Dream Machineでビデオを生成してみた/Creative.Edge Live - 21

Creative.Edge Live - 21

  • 2024年6月13日(木)深夜11時45分から ←終了しました

  • GenAI 実制作プロジェクトの進捗報告。その他、Midjourneyの新機能の続報、昨日利用可能になった動画生成AI「Dream Machine」でビデオを生成してみた結果など

  • このページにVimeoライブが埋め込まれます

  • X (旧Twitter) でも同時配信する予定

  • ライブ配信のアーカイブは残りません(※全ての配信)

当日の資料のダウンロード:

  • 20240613-CreativeEdge-Live-21.pdf (PDF/4.7MB/55ページ)

  • ダウンロード期間:6月17日(月)まで
    期間終了となり、メンバーシップに移動・保管しました

遂に「人間が走る」安定したビデオ生成が可能になった!
※今まで「現在の画像生成AIではできない」と言ってきたが撤回する
  • 再生時間:39秒(ループ)

Luma Dream Machine 検証

Midjourney V6 + Photoshop GenAI(Firefly)による生成画像をDream Machineで動かす
Runway Gen-2だと別人に変わってしまうがDream Machineは安定している
Adobe Fireflyで生成した複雑なポーズ画像を動かす
映像としては失敗しているが、それなりに動いた(Gen-2では人物が崩れる)

動画のCreative Upscaler

今後は生成ビデオにもCreative Upscalerは必須(Krea.aiを試す)
Dream Machineの生成ビデオは解像度が低いのでCreative Upscalerで品質を向上させる

パブリックベータの制限?

Dream Machineはまだ商用利用できない?
※有料ユーザーは商用利用可能になっているが
画面に表示されているウォーターマークの削除/トリミングは禁止されている


早朝ライブで生成したLuma Dream Machineによるビデオ。2分程度で生成されるはずですが深夜3時以降、処理に時間がかかるようになり、現在も1回の生成に2〜3時間はかかります(朝6時)。 追記:有料ユーザーは2分で処理される
今夜のライブでは、Open AIなど競合AIへの影響と倫理的な問題点について諸々話します。

前回紹介したMidjourney V6の新機能の続報も…
※以下のページに新機能の使い方を追加しています。

ほんとに変化が激しくて、記事化するモチベーションが続きません。
執筆中に情報が古くなる…というスピード感についていけない(だからライブ配信がメインになっているのですが)


更新日:2024年6月13日(木)/公開日:2024年6月13日(木)

この記事が気に入ったらサポートをしてみませんか?