見出し画像

バーチャルプロダクションの正しい理解と活用法 ー その4

去る6月26日(月)18:30より東京都千代田区のWATERRASCOMMONホールにて開催された6月開催VFX-JAPANセミナー「バーチャルプロダクションの正しい理解と活用法」の内容について、続きの投稿です。
もし、まだ前投稿をお読みでない場合は、以下をご参照ください。

前投稿までに、デジタルプロダクションの基本的な機能を実現する過程として、プリビズーポストビズ、バーチャルカメラ、オンセットビズまでを紹介しました。本投稿では、LEDパネルによる背景表示に至るまでの過程をご紹介していきたいと思います。

4)スカイドーム

背景を合成する場合、一般的にはクロマキースクリーンを使います。よくテレビの天気予報で、気象予報士の方が緑色のスクリーンの前で説明し、その背景に天気図を合成したりするアレです。以前、天気予報番組に出演したガチャピンが透明になっちゃうという放送事故がありましたが、ああいう合成をクロマキー合成といいます。

クロマキーには、最近は緑色(デジタルグリーンもしくはライトグリーン)が使われることが多いですが、緑色は非常に明るい色なので少ない照明でも色が出やすく、効率が良いという利点があります。その反面、反射も強いので被写体に色かぶり(回り込み)が生じることが多く、合成が厄介だったりもします。なので、最近は青色(ライトブルー)を使うことも増えていると聞いてます。

非常に一般的に使用されるクロマキー合成ですが、これには大きな問題があります。撮影現場で周りが緑色で、合成用の背景として何が映っているのかわからないということもありますが、一番の問題は照明です。クロマキースクリーンを使う目的として、合成のための被写体のマスク(抜け)をきれいに取得するということがあるので、クロマキースクリーンには一様な照明が当たっていることが必要です。そうなると、被写体にも同じように一様な照明が当たってしまい、合成時にのっぺりとしたメリハリのない不自然さが残ります。屋外には強い太陽があるので、光による陰影がはっきり出ます。ですが、合成シーンはそうはならないわけです。

イメージスタジオ109さんの照明

合成シーンでも自然な光の効果を再現できるようにはどうすれば良いか。
それを実現したのが、2013年の「オブリビオン」(ユニバーサル・ピクチャーズ)で使用されたスカイドームです。

スタジオのセットの周りをスクリーンで覆い、そのスクリーンに高輝度プロジェクターを使って天空の映像を投射し、自然な光に満ちた空間を再現するシステムです。天空の映像には、事前に360度カメラで収録した素材を使用し、現実の光をそのまま投影できるようにしています。もちろん、プロジェクター投射では光が弱いので照明機器を使って補填しています。しかしながら、背景は天空の映像が映し出されているので、クロマキースクリーンの時のようなメリハリのない照明ではなく、はっきりとした照明効果を作り出すことができます。
俳優も周りの環境が目で見て明白なので、非常に演技がしやすくなるわけですし、監督やカメラマンも背景があることで撮影における判断が的確になります。合成などのポスト作業も必要なくなるので、制作の上でも効果があるのです。

5)バーチャルスタジオ

デジタル技術が進歩して、様々なものが3DCGで制作可能になってきました。以前であれば、実際の街でロケーション撮影を行い、その素材に架空のビルを追加するという作業を行なってきましたが、現在では「スパイダーマン」や「トランスフォーマー」シリーズなどで、街全体を3DCGで構築してしまうということも普通に行われるようになりました。その方が、街全体をデザインできますし、キャラクターを飛ばしたり、街を破壊したりすることも思うようにできます。以前は3DCGが苦手だった動植物などの有機物も、今では実物と見違えるような仕上がりにすることも可能になっています。
となると、制作からこんな疑問が出てくるんですよ。
「ロケに行かなくても、スタジオで全部できちゃうんじゃないのかな?」
ということでやってみちゃったのが、2017年「ジャングルブック」(ディズニー)なわけです。

現実に登場するのは、少年一人だけ、あとは全部3DCGで作ってしまったという作品です。クロマキースクリーンで覆われたセットの中で撮影は行われました。背景CGの確認にはVRも活用され、まさにVFX技術の集大成という形がここで出来上がったと言えるのではないでしょうか。
しかも、これをやったのが冒頭に紹介したバーチャルプロダクションシステム、「マンダロリアン」シリーズで活用されたILM StageCraftを作り上げたジョン・ファブローなのです。
実際に、これを担当したデジタル・ドメインのスタッフに話を聞きましたが、このシステムによって大幅な作業効率化とコストダウンを実現できたんだそうです。当初、ジャングルに行っての撮影も予定されていたそうで、そこにはロケーションに必要な移動費や保険などが含まれており、制作費の総額は280億円と見積られていたそうです。しかし、バーチャルスタジオで全てをスタジオ内で実現した結果、250億円に抑えられたということした。パッと見、280億→250億では大して削減できていないかのように思えますが、その金額は30億円です。30億あれば、日本で超大作が何本作れることか。。。しかも、制作費の1割ですから、そう考えるとすごい金額なんです。日本であれば、1億の予算で1000万円が削減できたのと同じ。これは驚きなわけです。「ジャングルブック」の制作では、様々なシステムを開発も行っているので、それが運用に変われば、次はもっと削減できることになるでしょう。

まとめましょう。

このように、バーチャルプロダクションが構築されるまでには、様々な問題への対策があり、それにデジタル技術で応じたDXがあったのです。
1)プリビズーポストビズ
 
監督のプランを的確にスタッフに伝えることができ、撮影からポスト作業に至る多くの作業が最適化される
2)バーチャルカメラ
 プリビズ作業において、カメラワークの試行錯誤が迅速に行えるようになり、臨機応変な対応が可能となる
3)オンセットビズ
 
撮影現場で合成結果の確認が行えるようになり、撮影作業が最適化される
4)スカイドーム
 
背景映像を撮影現場で表示させることにより、背景と同じ光の環境を再現することが可能となり、自然な合成映像をスタジオ内で撮影できるようになる
5)バーチャルスタジオ
 
ロケーションに行かなくてもスタジオ内で撮影を完結させることが可能となり、作業効率化とコストダウンが実現できるようになる

バーチャルプロダクションは、ただLEDウォールの前で撮影すればいいというものではありません。重要なのは、目指す映像制作においてどのような問題があるかを見極めて、デジタル技術を使ってどうやってその問題を解決するかということなのです。
今年1月、世界最大のプリビズ会社The Third Floor社が、そのプロセスをまとめた映像を公開しましたので紹介します。

欧米では、このプロセスの重要性を理解し、どういう形にすればより効果的な制作ができるようになるのか、活発に議論がなされています。新しいデジタル技術が次々と生まれ、それをどう活用すべきかを検討されているのです。それが脚本家組合や俳優組合のストライキにもつながっていますが、それは正しい議論であり、戦いではないかと思います。
日本では、一つの技術を取り上げて、それをよってたかって突き回し、結局うまく使えないということが多々あります。ファイル共有や3D立体視もそうでしたし、最近ではVRやメタバース、AIもそうなりつつあるように思えます。
ただ、上辺だけ取り繕うのではなく、本来の意味や形を正しく理解し、それをどう扱っていくか、真剣に考えなければいけない瀬戸際にきているのではないでしょうか。

次の投稿では、今後、どうバーチャルプロダクションと向き合っていくべきか、みなさんと一緒に考えていけたらと思います。

P.S.
発表資料をご参考までに添付します。

この記事が気に入ったらサポートをしてみませんか?