見出し画像

[ライブ配信]Runway Gen-3 Alpha に実装されたImage to Video の検証結果/Creative.Edge Live 32, 33

Creative.Edge Live 第33回目

  • 2024年7月30日(火)夜11時45分から 深夜12時30分から

  • 生成AIを活用した映像制作まとめ/2025年予測 [ 後編 ]

  • このページにVimeoライブが埋め込まれます

  • X (旧Twitter) でも同時配信する予定

  • ライブ配信のアーカイブは残りません(※全ての配信)

当日の資料のダウンロード:

  • 20240731-CreativeEdge-Live-33.pdf (PDF/7.2MB/69ページ)

  • ダウンロード期間:8月6日(火)まで
    期間終了となり、メンバーシップに移動・保管しました

自主映画制作で動画生成AIを導入する時の大まかな費用(GPU使用料の月額)
絵コンテからシーンのリファレンスを擬似「3D to Image」で作成
擬似「3D to Image」で作られたシーン映像(Gen-3 Alphaで生成)
コンシューマー向けは「機能」、エンタープライズ向けは「製品」で提供される
Premiere Proの中で動画生成AIのモデルを切り替えながら作業を実行


Creative.Edge Live 第32回目

  • 2024年7月30日(火)深夜12時から

  • 生成AIを活用した映像制作まとめ/2025年予測 [ 中編 ]
    Runway Gen-3 Alpha に実装されたImage to Video の検証結果

  • このページにVimeoライブが埋め込まれます

  • X (旧Twitter) でも同時配信する予定

  • ライブ配信のアーカイブは残りません(※全ての配信)

Gen-3 Alpha - Image to Videoの検証:走る・階段を上がる
Gen-3 Alpha - Image to Videoの検証:手・指のハルシネーション
手・指のハルシネーション:概ね良好。水の表現はプロンプトで指示
Gen-3 Alpha - Image to Videoの検証:歌唱シーン
Gen-3 Alpha - Image to Videoの検証:アクションシーン
Gen-3 Alpha - Image to Videoの検証:難易度の高い表現
映画のVFXシーンは表現しやすい(成功率が高い)
Gen-3 Alpha - Image to Videoの検証:追加プロンプトによる表情コントロール


三夜連続配信(29日・30日・31日):

Creative.Edge Live 第32回目 →終了しました

  • Runway Gen-3 Alpha に実装されたImage to Video の検証結果

  • 30日(火)深夜12時から

Creative.Edge Live 第33回目 →終了しました

  • 生成AIを活用した映像制作まとめ/2025年予測 [ 後編 ]
    Midjourneyがバージョン6.1になったので、検証もやります

  • 31日(水)夜11時から


前回のライブ配信:


更新日:2023年2024年7月31日(水)/公開日:2024年7月30日(火)

この記事が気に入ったらサポートをしてみませんか?