どうなる?2024年の生成AIと映像制作[10] 動画生成AIで自主映画制作は可能か? - Blog 2023/12/28
「動画生成AIで自主映画制作は可能か?」シリーズの第10回目です。
[1] 動画生成AIで自主映画制作は可能か?(2023/11/17)
[2] 動画生成AIで自主映画制作は可能か?(2023/11/23)
[3] 動画生成AIで自主映画制作は可能か?(2023/11/28)
[4] 動画生成AIで自主映画制作は可能か?(2023/12/06)
[5] 動画生成AIで自主映画制作は可能か?(2023/12/08)
2週間後の東京の街並みを生成してみる -[6]動画生成AIで自主映画制作は可能か?(2023/12/10)
夢でみた記憶の映像をAIで生成してみる[7] 動画生成AIで自主映画制作は可能か?(2023/12/12)
プロンプト入力だけの画像生成はそろそろ終了...[8] 動画生成AIで自主映画制作は可能か?(2023/12/14)
映画制作の進捗報告[9] 動画生成AIで自主映画制作は可能か?(2023/12/21)
映画制作プロジェクトの概要:
生成AIが今後クリエイティブ業界に与える影響を検証する目的で実施
最長2分20秒のビデオプロトタイプを制作する
ストーリー構築からビジュアルデザイン、映像制作まで全てのプロセスで生成AIを活用する(※サウンドのみAdobe Stockからライセンス取得)
生成AIを最大限に活用して「1人」で制作する
生成AIポリシーを遵守する
画像生成AI Prompting 方針(12月に更新):
プロンプトに作家名や作品タイトルを入れない(映画監督の名前や映画タイトル、登場人物、俳優の名前等も同様)
プロンプトに著名人の名前やブランド名などを入れない
他人の著作物を Describeしない
特定の歴史的、文化的に重要な作品に対する敬意を表し、その再現を控える(著作権の問題でなく作品がもつ文化的価値や影響を尊重するため)
Nijiモデルの生成画像は自分の作品として公開しない
生成した画像は作品の素材として利用する
公開する場合はAIで生成したことを表記する
どうなる?2024年の生成AIと映像制作
2023年も残り3日となりました。
今年は、6月にRunway Gen-2が利用可能になり、7月22日の品質改善で動画生成AI技術革新の幕が切って落とされました。「まだ、5か月しか経っていない!」という猛烈なスピードで進化しています。
2024年はどうなるのか?
自主映画制作の新たな可能性や映像業界に与える影響について、30日(土)ライブ配信したいと思います。ライブの記事化をこちらに順次掲載していきます。ライブの収録動画はメンバーシップ向けにアーカイブする予定です。
現在のビデオ生成の表現力
以下は、X (旧Twitter) に投稿した生成ビデオですが、問い合わせを多数頂いたので、詳細を記載しておきます。
使用した生成AIおよびアプリケーションソフト:
画像の生成:Midjourney V6(alpha)
ビデオの生成:Runway Gen-2
音楽:Suno AI
ビデオの編集:After Effects
映像は全て生成AIですが、このビデオは音楽も生成AI (Suno AI) です。
例えば、路面電車のシーンは、以下のようなプロセスになっています。
Midjourney V6(alpha) でシーン画像を生成。
Runway Gen-2 でビデオを生成します。
電車の走行は、モーションブラシを使用。
下方向に「2.0」、左方向に「0.5」設定しています。
カメラはディレクターモードのカスタムカメラ・コントロールを使用。
垂直方向にパンニング「1.0」を設定しています。
雪が足りないので、Runwayでもプロンプトを入力しています。
全てのシーンを同様のプロセスで生成していきます。
注意してほしいのは、1960年代の日本の風景を「再現しているのではなく」、それらしいイメージを生成しているだけなので、どちらかといえば、ファンタジーの世界です。
画像生成ポリシーの4番がなぜ追加されたのか?
ここまでリアルな表現が可能になってくると、過去の再現がどれだけ危険か理解できると思います。
Adobe Fireflyはなぜ、ナポレオンやモナ・リザを生成させないのか?
生成AIによる創作が「真実」として拡散していくことを回避する一つの対策になっているのです。
ただ、生成AIによるファンタジー作品であることを明示した上で、クリエイティビティを高めていくなら「夢」が広がります。
今まで不可能だったイマジネーションの具現化によって、見たことのないユニークな映像作品を創出できる可能性があります。
陳腐化するのが速すぎる!
以下の生成ビデオは、今月の報告会で披露した映画のイントロダクションですが、すでに古くなってしまいました…
報告会の数日前に、MidjourneyのV6(alpha)が利用可能になり、生成イメージの品質が大幅に向上しました。この映画イントロダクションは、V5.2で生成しているので、旧世代の生成ビデオに見えてしまいます。
作成して1週間も経っていないのに…
再生時間:1分40秒
映像は全て生成AI、音楽のみAdobe Stockのライセンス
Gen-2が利用可能になったのが6月7日、生成ビデオの品質改善が7月22日ですから、「半年経っていない」ことを忘れてはいけません。
来年の6月で、やっと1年です。
今は過渡期であり、まだ技術進化の速度が低下することはないでしょう。
インターネット黎明期のように、大企業は様子見、エクストリームな個人が最も強く、次々と登場する革新的な技術を使い倒していく。
このような時期は(無理をしても)極端なことをやらないと、可能性もリスクも見えてこないので、クリエイティブ領域では「実制作」しながら仮説検証を繰り返していく必要があります。
※極端なこと = 映画を制作するとかファッション雑誌を丸ごと作るとか…
日本発の生成AIを使用した実験映像
下図は、今月の報告会の資料ですが、「動画生成AIで自主映画制作は可能か?」に関するトピックで、生成AIを活用した映像作品のジャンルについて言及しています。
Runway Gen-2などの動画生成AIを使って制作された映像コンテンツの大半は、SF (Science Fiction) です。
ライブ配信中です。
記事化が追い付いていません… 少々お待ちください
次回に続きます
「動画生成AIの可能性」マガジンをフォローしておくと、最近記事・最新情報の通知が届きます。
更新日:2024年1月18日(木)/公開日:2023年12月28日(木)
この記事が気に入ったらサポートをしてみませんか?