見出し画像

いよいよ高校講座でも動画生成AIをやることに。デザインフィクション講座の計画/今月から2025年度の教育計画をスタート - Blog 2024/08/04

2024年もあと5か月となり、今月から2025年度の準備作業がスタートしました。
現在、実施している「高校講座:Adobe Firefly」は2023年8月頃からプランニングを進めており、準備に10か月近くかかっています。
生成AIの扱いについては批判的な方々の意見も聞きながら、ベストな落としどころを模索していましたので、カリキュラムの策定より「説得」に時間がかかったと思います。

2025年度のカリキュラムに「動画生成AIの活用」を組み込む

まだ確定ではありませんが、2025年度はいよいよ「動画生成AI」をカリキュラムに組み込みます。来年の5月までにAdobe Firefly Videoが利用可能になっている前提で計画していますので、「現在の動画生成AI」を対象としていません。

来年5月までの「10か月間」で何が起こるのか、コンシューマー領域とプロフェッショナル領域に分けて予測していく必要があります。
高校講座が対象とするのは、コンシューマー向けに提供されるプラットフォームの「機能」であり、プロフェッショナル向けの「製品」ではありません。

第33回 Creative.Edge Liveより抜粋

具体的には、Adobe ExpressやCanva等の一般向けデザインストア・タイプのクリエイティブプラットフォーム上で利用できる動画生成AI技術です。
CanvaはすでにMagic StudioにRunway Gen-2のText to Video(簡易版)を実装しています。また、HeyGen AI AvatarはCanvaのアプリ、Expressのアドオンで利用可能になっています。
来年5月までの10か月で大きな変化があると予測しており、動画生成AI技術を持つベンチャー企業とのパートナーシップや買収など、今後の動向に注目しています。

第33回 Creative.Edge Liveより抜粋

Canvaは7月30日(現地時間)にLeonardo.Ai⁠の買収を発表。3月26日にはAffinityを買収しており、今回は8番目。


[2025年度]高校講座:デザインフィクション

デザインフィクションは2022年に特別講座で実施していますが、2025年度は新講座としてプランニングしています。
現在、実施している「高校講座:Adobe Firefly」を代替するもので、映像の要素が追加されます(※Firefly Videoが来年の5月までに利用可能になる見込みで計画しています)。

今年後半からは、ビデオ、オーディオ、アニメーション、モーショングラフィックスデザイン向けの新たなジェネレーティブAI機能の導入を開始します。私たちのアプリケーション全体で、Adobe FireflyやジェネレーティブAIの活用について、皆さんのご意見やご要望をぜひ伺いたいと思っています。

https://blog.adobe.com/jp/publish/2023/04/18/cc-video-reimagining-video-audio-adobe-firefly

デザインフィクションの上位概念には「Speculative design」があり、現状を批判的に見つめ直し、望ましい未来とそうでない未来の両方を想像することで、デザインと技術の在り方について問いを投げかけ、議論を喚起することが狙いです。

動画生成AIの技術は、未来のシナリオと可能性を想像することに焦点を当てたデザインアプローチに適しており、架空のシナリオや世界観を具体的に表現することができます。

新講座では、動画生成AIで架空の世界を具体的に描き、未来の可能性を探り、議論を喚起する等、戦略策定につなげるための一連のプロセスを実践することができます。

2022年の特別講座では、将来起こり得る大規模な地震を取り上げ、地震発生の未来から逆算する「Backcasting」によって、議論を喚起するための映像を制作しました。

南海トラフ地震においては、M8~9クラスの地震が今後30年以内に発生する確率が70~80%(地震調査研究推進本部地震調査委員会の調査、平成30年1月1日現在)とされており、大規模地震発生の切迫性が指摘されています。

https://www.bousai.go.jp/kohou/kouhoubousai/r01/96/news_01.html

[2025年度]高校講座:デザインフィクションについては、このnoteで進捗を報告します。
近々、記事を一覧できる専用のマガジンを作成する予定です。


動画生成AIで未来を描く

4月から開始したCreative.Edge Live(ライブ配信)は、明後日の7日(水)で34回目になります。
毎月開催している報告会とは異なり、検証のプロセスや生成AIを活用した実制作の試行錯誤をそのまま流していますので、週単位で評価がひっくり返るという、黎明期ではよく見る混沌とした風景を垣間見ることができます。

生成AIに関する情報発信は、ライブ配信がメインになっている

今月からスタートした「高校講座:デザインフィクション」のプランニングに伴い、Creative.Edge Liveも生成AIを活用した「実制作」に力を入れていきます。
動画生成AIは(実際に触れるようになって)まだ1年しか経っていないのに、簡易なプロトタイプを作成できるレベルまで到達してしまいました。昨年、「あと2年かかる」と予測してきたことが既に実現している状態です。

第33回 Creative.Edge Liveより抜粋

画像生成AIの高機能化も予想より速く進んでいます。

Midjourney V6.1
Midjourney V6.1
Character ReferenceとStyle Reference、Personalizationで意図したイメージを生成できる
画像生成の品質向上も凄まじい

動画生成AIの主力サービスは今のところ、Runway Gen-3 Alpha、Luma Dream Machine、KLING等。

Runway Gen-3 Alpha

Image to videoの初期プロンプト例:

Visual: Two women stare ahead with nervous expressions.
Hand held shot: A fixed camera is filming the faces of two women staring ahead.

第33回 Creative.Edge Liveより抜粋


動画生成AI技術の最初のショーケースとして、まず「SFプロトタイピング」を試行していきたいと思います。
新講座「高校講座:デザインフィクション」の基盤を構築するための取り組みになります。7日(水)に予定している第34回のライブ配信でもお話します。



[2024年度]高校講座:Adobe Firefly 公開中

創造的問題解決力の育成を目的としたプロジェクト学習でAdobe FireflyやChatGPTなどの生成AIを利用します。
社会人の皆さんもアーカイブを視聴できますのでビジネスのスキルアップにご活用ください。


更新日:2024年8月4日(日)/公開日:2024年8月4日(日)

この記事が気に入ったらサポートをしてみませんか?