ゲームの新時代:Generative AIが導く未知なる体験
これからのゲームの話をしよう
2023年5月、NVIDIAは生成AIを用いてゲーム中のキャラクターに自然な会話をさせる技術Avatar Cloud Engine (ACE)を発表しました。
まずはこちらのDemo動画を見てください。
筆者も幼少時からゲームと長く付き合ってきました。小学生の頃には「スーパーマリオブラザーズ」を遊んでいましたが、そこではプレイヤーとキャラクターの対話はなく、いわば一方的にゲーム内キャラから語りかけられていました。
そして中学の頃にはアンチャーテッドと出会います。当時はその映像美とリアルさに驚かされましたが、それでもゲーム内キャラと対話するには至りませんでした。
そして高校の時に遊んだフォールアウトでは、複数の会話の選択肢により、まるで実際に会話してるかの没入感はありましたが、それはただの選択肢の延長にすぎませんでした。
しかし今回のNVIDIAでのACEを活用したゲームのDemo動画では、プレイヤーが喋るとそれをテキスト化し、それに対してゲームのキャラが音声と共に適切な返事を生成する様子が見られます。
もし無限に続くオープンワールドの世界において、個性的で魅力的なキャラクターと自然に対話できるとしたらどうでしょうか?
これらの技術は、今までのゲーム体験を根本から変えてしまうものになりえます。
ところでゲームというのは、今までは現実とは別のもの、もしくは現実を模した仮想世界といった認識が持たれていました。ゲームの中で起こることはあくまでゲーム内の出来事でしかなく、ゲーム内のコンテンツはその外に出ることはない。
しかし、最近そうした認識は変わりつつあります。例えば自動運転は現実世界で実験するのは当然危険であるため、ゲームのようなプラットフォームで試行させています。またデジタルツインの構築においては、ただ現実のレプリカをコンピューター上に構築するだけでなく、現実とデジタルツインのインタラクティブな関係性を目指しています。
こうしたように、ゲームはもはや現実から隔離されたものではなく、社会実装の前の試験的プラットフォーム、さらにはもう一つの現実といった認識が現れ始めています。
そしてGenerative AIやメタバース、MRといった現代を代表するテクノロジーは、そうした認識の変化を後押ししています。
今回はそうした変わりつつあるゲーム業界、そしてその現実への拡張の可能性について書いていきます。
伸び続けるゲーム市場とGenerative AI
AI市場が伸び続けていることは公然の事実ですが、ゲーム市場も同様に成長を続けています。
2017年時点で1200億ドルだったビデオゲーム市場ですが、2023年現在で既に、2倍以上の2500億ドルにまで伸びています。
ゲーム業界がこうした絶え間ない成長を続けている裏には、ゲームがプラットフォーム化しているという背景があります。
かつては個人で楽しむゲームでしたが、通信技術の発達やMODによる拡張を経て、プレイヤーにとってもインタラクティブなものへと変わっていきました。
また最近はE-Sportsなどのイベントや、Web3の技術によりゲーム内アセットに所有の概念が生まれたおかげで、プレイヤーとクリエイターという枠を超え、ゲームをする当事者以外にもコミュニティーは広がっていき、「ゲーム」という進化し続けるプラットフォームに至りました。
こうしたプラットフォームとしての性質により、ゲームはテクノロジーとの親和性も高いです。過去を顧みても、インターネットなどの当時の先端テクノロジーによりこのプラットフォームは真っ先に影響を受けましたし、Generative AI、MR、NFTといった現代のテクノロジーによっても、ゲームは拡張し続けるでしょう。
こうした中、現在特に注目を集めているのがGenerative AIのゲームへの活用です。みなさんご存知Generative AIはリアルタイムでの生成を通して、ゲーム業界にさらなる革命を起こす可能性があります。
Generative AIはグラフィックス(画像や3次元オブジェクトなど)とキャラクター(NPC、セリフ)、さらにはオーディオ(バックグランドミュージック、会話)と、ゲームにおけるあらゆる部分において適応可能です。
こうしたGenerative AIのゲームへの適応のムーブメントはまだ初期段階であり、これから試行錯誤を通してより精度の高い生成AIツールが出てきます。また現在は先ほど挙げた各分野において、それぞれ生成AIツールが散在している状態ですが、生成AIツールをワンストップで提供するスタートアップもゲームの分野において出てくるでしょう。
例えばRunwayはゲームに特化しているわけではありませんが、text-to-image、image-to-video、video-to-video含め、他の生成AIツールを包括的に提供しています。このようなサービスをスタートアップが開発するのか、それともUnityやUnreal Engineのようなゲーム開発プラットフォームの巨人が自社開発での提供を始めるのか、そうしたこれからの競争のダイナミズムも面白いです。
それではGenerative AIが、具体的にどのようにゲームに活用されているのか事例とともに紹介していきます。
Generative AIによるゲームの未来
ノーコードゲーム開発
Text-to-codeをはじめとするコーディング分野のGenerative AIによる、ノーコード開発が注目を浴びていますが、ゲーム開発にももちろん適応可能です。
普遍的なAIコーティングツールとしては、GitHubとOpenAIが共同で開発したGitHub Copilotがありますが、ゲーム開発プラットフォームもコード生成AIツールの導入を始めています。
Robloxは世界中で親しまれているゲーミングプラットフォームですが、2023年2月に「Roblox Studio」へのAIコーディングツール導入を発表しました。Robloxは「誰もがクリエイターになる」というビジョン達成のため、コーディングを全く知らない人でも、対話型AIを使ってその場でコードを生成できるツールを提供しています。
デモ動画では、「雨を降らせる」、「浮かせる」といった簡単なプロンプトを入れるだけで、コードが生成され、実際にその通りになる様子が見られます。
今はまだノーコードでゲームをエンドツーエンドで開発することは難しいかもしれませんが、Generative AIによって既に、ゲーム開発者はより効率的にコーディングできるようになっています。
少し遠い未来になるかもしれませんが、コーディングができない私もずっとゲームを作ってみたかったため、新しいコード生成AIに注目していきたいと思います。
パーソナライズされた、対話可能なNPC
SiriやAlexaなど、バーチャルアシスタントはかねてからありましたが、そうしたGenerative AIのゲームへの活用もやっと現実的になってきました。
その先駆者となるのが、冒頭でも紹介したNVIDIAのAvatar Cloud Engine (ACE)です。
ACEは以下のような独自技術を駆使することで、対話可能なNPCを実現しています。
NVIDIA NeMo™:キャラクターのバックストーリーなどによってカスタマイズできる独自の大規模言語モデル。NeMo Guardrailsによって不適切な会話から保護できる。
NVIDIA Riva:自動音声認識およびテキスト読み上げによる、リアルタイムでの音声会話。
NVIDIA Omniverse Audio2Face™ :会話に合わせてNPCのフェイシャルアニメーションを即座に生成。
このようにGenerative AIを複合的に活用することで、生きているかのようなNPCの開発を可能にしています。また言語モデルのカスタマイズによっては、プレイヤーひとりひとりに合わせたNPCのセリフも生成可能になるでしょう。NVIDIAのこの総合的なAI基盤モデルは、まさにゲームへのGenerative AI活用のフロンティアともいえる技術です。
また各種ゲームディベロッパーもゲームへのGenerative AIの活用を始めています。
「アサシンクリード」シリーズで有名なUbisoftですが、2023年3月にゲーム内NPCのセリフをAIによって生成するツール「Ghostwriter」を発表しました。
Ghostwriterでは、キャラクターが経験するイベントや状況に合わせセリフを生成してくれます。またそのセリフがどういった感情で話されるのかも設定することができます。
こうしたGenerative AIの応用を見ていると、ワクワクするとともに、NPCという存在についても考えさせられます。「Undertale」や「ドキドキ文芸部」など、ゲーム内キャラがメタ的に干渉してくるゲームタイトルはいくつかありますが、こうしたゲームでの問いが現実味を帯びてきています。NPCが対話可能かつ感情を表現できるようになった時、ゲームと現実の距離が急速に狭まるでしょう。
途切れぬサウンド、高まるバイブス
ゲームの忘れてはいけない重要な要素として、「音」があります。剣を振る時の効果音、小鳥の囀り、ボス戦前の荘厳な音楽など、こうした音はゲームをよりスリリングでドラマチックな体験にしています。
しかし、ゲームに充満する全ての音をマンパワーで作るのは途方もない時間と努力が必要です。
そうした中、Tsugiは数学モデルを使って効果音を作り出す、プロシージャルサウンドツール「GameSynth」の開発を行っています。最近はそのツールにGenerative AIを活用することで、リアルタイムでのゲーム効果音の生成を可能としています。
またゲームに特化しているわけではありませんが、MUSICOは音楽生成AIとして注目を浴びています。MUSICOはエンドレスで、著作権フリーの音楽の生成を可能にしています。
以下公式ウェブサイトにてデモを試すことができるので、ぜひ遊んでみてください。
現時点ではまだバリエーションが少なく、デモトラックを聴いていても音楽に一貫性やストーリー性がないように感じます。ゲーム音楽となると、シチュエーションに合わせて適切な音楽を生成するため、大量の音楽データから学習するだけでなく、どういった状況でどういった音楽が流れるかといったラベル付けも必要になってくるでしょう。
こうした音楽生成AIが発展することで、リアルタイムにゲーム世界にサウンドをみなぎらせ、より没入感のあるゲーム体験を可能にします。
オープン・エンドレス・ダイナミック・ワールド
オープンワールドゲームを制作する際には、様々なゲームアセットを作る必要があります。画像、3Dオブジェクト、そしてオブジェクトのテクスチャーやアニメーションなど。これらが合わさることでゲームのワールドが出来上がるのですが、当然ながら労力と、そして膨大なコストがかかります。
例えば「Red Dead Redemption 2」は西部劇の世界を描くオープンワールドゲームですが、このゲームの開発にはなんと5億ドル(約700億円)もの費用がかかっています。
こうした課題があるため、Minecraftをはじめとするオープンワールドゲームにおいては、アルゴリズムを用いてランダムにワールドを生成するProcedual Generationの技術が早くから発展してきました。しかしそれはランダムに、似たようなワールドを広げていくだけであり、動的でストーリー性のある生成はできませんでした。
そんな中、2020年8月時点で、MicrosoftはBlackshark.aiとパートナシップを組み、Generative AIを活用して2Dの衛星画像から3Dの世界を生成することで、地球全体を飛び回ることができるフライトシミュレーションゲーム「Microsoft Flight Simulator」を開発しました。
これはimage-to-worldともいえる技術で、従来のProcedual Generationのようなワールド生成と違い、生成されるワールドに地球という意味、ストーリー性が加わっています。
こうしたゲームのワールド生成の歴史や、各種Generative AIツールから想像できる未来は興味深いです。例えばプレイヤーの選択や好みに合わせて、適切なワールドやキャラクター、ストーリーが生成されるゲームなども夢物語ではなくなってきています。
まさにゲームへのGenerative AIの活用による、無限大の可能性を感じさせてくれます。
既にGenerative AIを活用した面白いゲームスタジオも出てきているので、次回の記事で取り上げていきたいと思います。
現実をも拡張するゲームAI
最後にゲームAIと現実への適応可能性についてです。もとよりデジタルツインはゲームエンジンとの相性がよく、先ほど挙げたUnityやUnreal Engineも自社プラットフォームを活用した、産業向けのデジタルツインソリューションを提供しています。
またNVIDIAのOminiverseは、3Dの仮想空間を構築するためのアプリケーションを繋いだプラットフォームソフトウェアで、現実に近いシミュレーションを可能にしています。その性質上、ゲームディベロッパーだけでなく各産業の開発者にも使われ、まさにゲームと現実を繋いでいるいい例となっています。
Omniverseは既に自動車産業、建築、映画制作、小売、自然科学研究といった各分野にて活用されており、これらの事例を見ればデジタルツインの現実への接続と、その可能性を体感できます。ぜひ以下のNVIDIAの公式サイトにて、実際の事例を確認してみてください!
MCS-AI動的連帯モデルとスマートシティ
ゲームAIの仕組みをスマートシティに活用するモデルも出てきています。
MCS-AI 動的連帯モデルは、スクエアエニックスの三宅陽一郎が名付けたモデルで、ゲームAIを構成する3つの役割の協調についてのモデルです。
MCS-AI 動的連帯モデルでは、ゲーム内のAIをメタAI、キャラクターAI、スペーシャルAIの3種類に分けています。
メタAI:ゲーム内の一段階高いレイヤーからほかのAIを制御する役割をもつAI
キャラクターAI:ゲーム内に登場するキャラクターが自身で環境を認識しながら自律的に意思決定をして行動するためのAI
スペーシャルAI:空間全体に関する解析をし、データをメタAIやキャラクターAIに伝達するAI
これら3つのAIが自律しながら協調することにより、空間的にも時間的にも深みのある体験をプレイヤーに提供することができます。
この3つのゲームAIを都市の各層に組み合わせることでのスマートシティへの応用が期待されています。メタAIは都市全体の状態変化や災害を認識し、下位の人工知能に指示を与えます。キャラクターAIは、ロボットやデジタルデバイスといったハードウェアを動かし、スパーシャルAIは都市の地形情報や配置されたオブジェクトから空間的情報を抽出し、その情報をメタAIやキャラクターAIに提供する役割を持ちます。
この動的なモデルによって、スマートシティの効率的な運営と改善が実現され、都市全体に知性を吹き込むことになります。
これまでのスマートシティは、都市におけるデータ活用やデジタライゼーションといった都市の中の一部分のスマート化にばかり焦点が当たっていましたが、このMCS-AI動的連帯モデルの仕組み適応により、都市単位でのスマート化が可能となります。
個人的にも非常に注目している分野なので、国土交通省が主導する3D都市モデルのオープンデータ化プロジェクト「PLATEAU」の活用も含めて、動向を追っていきたいと思います。
最後に 〜求む、ゲーム系スタートアップ〜
次回の記事では今回のテーマに引き続き、AIゲームスタジオについて紹介していきたいと思います。
HAKOBUNEも、ゲームを含むプラットフォームのための、対話型AIキャラクターを開発するスタートアップ「EuphoPia」に投資しました。
ゲーム領域ももちろん、将来の時代を象徴する"変化"に積極的に投資していきます!
これからの社会を担う起業家や、アイデア段階にいる方々ともぜひお話をしたいと考えていますので、お気軽にご連絡ください!
<参考資料>