見出し画像

OpenAIによって発表されたText to VideoのSoraについて

日本時間の2/16未明にOpenAIによって発表されたText to VideoのSora(ちな語源は日本語の「空」のようです)のデモが結構凄まじいです

↑サイト内で数十種の動画確認できますが、正直、実画像との見分けは本当に細かい部分以外は気づかない気がします。(例によって日本語らしき看板の文字がおかしいとかはありますがw)

サンプル動画下に、当該動画を生成するための数行の英語プロンプトも記述ありますが、この短い命令文でここまで違和感ない60sec程度の動画作成できるのは信じられない気もします。

現実世界が時間と空間と物理法則で動いてるのと同様のことを、AIが概念として理解し仮想世界で物理計算しながら描画しているかもと思うと、シミュレーション仮説が現出した錯覚を覚えてしまいます。

サイトトップにある女性が日本のネオン街を歩く動画も、アスファルト水たまりにあるネオン反射も含めて衝撃的でしたが、


猫が草むらの中を歩く動画も、草や花々の動きや猫の毛に至るまでの動きや光のレイアウトの自然さ…

雪と桜の東京を楽しみながらショッピングするカップルをカメラで追いかける様子を自由視点で追いかける動画

コーヒーカップの中でコーヒーの波に漂う2隻の海賊船

とか3D映画でゴリゴリに作成したような映像が数行のテキスト投げるだけで完成するのは衝撃です。

ちな、エンジンは未だ外部公開はされてませんが、昨日未明にXのタイムライン追っているときに、CEOのサム・アルトマンがXのリポストにコマンド募集して、採用した数点のコマンドを即時実行して公開とかもしていたので、某Googleがやらかしたようなプロモデモ用の誇張は少ないかと思いますw


GoogleがGemini1.5の発表(こっちも技術・容量・性能的に結構衝撃でしたが)の数時間後にSoraの発表を被せてくるあたり、OpenAIは結構戦略的で、良い意味でずる賢いなぁwと感心しました。


この記事が気に入ったらサポートをしてみませんか?