見出し画像

バーチャルプロダクションの正しい理解と活用法 ー その3

去る6月26日(月)18:30より東京都千代田区のWATERRASCOMMONホールにて開催された6月開催VFX-JAPANセミナー「バーチャルプロダクションの正しい理解と活用法」の内容について、続きの投稿です。
もし、まだ前投稿をお読みでない場合は、以下をご参照ください。

前投稿で、デジタルプロダクションのスタート点として、プリビズーポストビズについて紹介しました。本投稿では、それの続く過程をご紹介していきたいと思います。

2)バーチャルカメラ

プリビズ技術が一般に利用されるようになり、多くの作品のプリビズ作業が発生し始めます。2005年頃は、プリビズ自体はメジャーな仕事となってきていましたが、それでもまだ発展途上の技術であり、利用に当たっても賛否両論がありました。事前に決めてしまうことで、撮影現場で身動きが取れなくなるという反対意見が現れます。プロデューサや監督の中には、プリビズ通りに制作を進めることを良しとする人も現れてきたからです。プリビズはあくまでガイドです。撮影やポスト作業で効果的な動きができないのでは意味がありません。それを理解するために、様々なバージョンを作ったり、臨機応変にプリビズを変更する必要が出てきました。
そこで発明されたのが、バーチャルカメラです。

これは、LAにあるプリビズ専門会社の一つHALON ENTERTAINMENT社のバーチャルカメラシステムです。2007年にモーションキャプチャメーカであるOptiTrack社と共同で、光学式モーキャプシステムを使ったバーチャルカメラを開発しました。グラフィックスの描画はCryENGINEを使っていたかと記憶しています。
それまでのプリビズ製作は、アニメータがカメラをキーフレームアニメーションさせることで作っていました。そのため、製作に時間がかかる上に、動きに不自然さが残ったり、修正に時間がかかったりしており、臨機応変に対処することはとてもできない状況でした。
しかし、バーチャルカメラを使えば、様々なパターンを短時間で何度も試すことが可能となり、現場の要望に応じて変更を加えることもできるようになったのです。しかも、モーションキャプチャを使うことで、演技も同時にアクションさせることが可能となりました。

バーチャルカメラには、様々なシステムが開発されました。LAの最大のプリビズ専門会社THE THIRD FLOORでは、InterSense社の超音波センサーシステムを使ったバーチャルカメラを使用していました。モーションキャプチャにはXsens社のMVNを使い、こちらも同時収録可能なシステムとして構築されていました。
もちろん、Vicon社の光学式モーキャプシステムを使ったバーチャルカメラもあり、様々な会社で自分たちの使用に合致したシステムを導入して活用していましたね。
私は、会社の近くにInterSense社のバーチャルカメラを扱っている会社があったので、そこと交渉して使わせてもらっていました。会社設立後は、東宝スタジオ内にVICON社のシステムを使ったバーチャルカメラを設置していただき、「進撃の巨人」などのプリビズを担当させていただいたりしました。

バーチャルカメラルーム
バーチャルカメラ

3)オンセットビズ

バーチャルカメラができるようになると、制作サイドから要望が出てきました。
「撮影現場でできないのか?」
それはそうでしょう。撮影現場でできれば、合成した結果を確認することができ、監督やカメラマンも映像を決定しやすくなります。また、俳優も背景に合った演技を確認することでき、より演技しやすくなります。3DCGでカメラをシミュレーションできるなら、撮影現場のカメラでもできるだろうという、現場のアイディアです。ですが、それは簡単なことではありません。
バーチャルカメラは、あくまで3DCG上での作業です。しかし、撮影現場で行うということは、ただ単に3DCG上でカメラをシミュレーションさせるだけでなく、撮影されたカメラ映像を取り込み、合成させて出力させるということが必要になります。シミュレーションであれば多少のずれは許容されますが、合成させるとなるとシビアに合わせる必要があります。フィルムカメラであれば画角は仕様によって決まっていましたが、2000年頃から使われてきたデジタルカメラは撮影素子のサイズや設定、レンズとのマッチングによってバラバラでした。それが余計に合成を難しくさせていたのです。
2011年に、現場でのバーチャルカメラを実現できるシステムが出現します。それがオンセットビズシステムです。

2010年にラスベガスで開催された国際放送機器展NABで発表されたのが、LightCraft technologys社が開発した「Previzion system」でした。天井に配置したマーカーをセンサーカメラでキャプチャすることでカメラの位置を算出します。カメラ位置の算出と背景に表示する3DCG映像の生成は専用のPCシステムが使われます。レンズキャリブレーション用のシステムも用意され、撮影カメラの映像と専用コンピュータから出力される3DCGによる背景映像とを、リアルタイムでピッタリ合成して出力させることができました。
このシステムは、2011年からユニバーサルスタジオ・ハリウッドの撮影スタジオに常設され、LAにあるポスプロ会社ZOIC社が運用し、Z.E.U.Sというサービスとして提供されました。

このシステムにより、最も効果があったのがテレビドラマの制作です。米国のテレビドラマは、映画のように潤沢な予算がなく、スケジュールも厳しい状況でした。そのため、どうしても映像のクオリティを上げることができず、低迷してしまっていたのです。しかし、このシステムを使うことにより、多くのシーンをスタジオ内で完結させることができ、天候などによるスケジュール変更の影響を抑えることができました。さらにロケーションを減らすことで制作費を大幅に削減することができるようになりました。その方法で制作されたソニー・ピクチャーズ テレビジョン製作「PAN-AM」は大ヒットになり、一躍オンセットビズの有効性を実証させました。

PreVizion Systemは米国エミー賞の技術賞など数々の技術賞を受賞し、オンセットビズは映像製作に不可欠な手法となりました。もちろん、他にも様々なオンセットビズシステムが作られ、「スター・ウォーズ/フォースの覚醒」など映画やテレビドラマ、CMの制作で活用されました。
その後、ZOIC社はカナダのバンクーバーなどにオンセットビズ対応スタジオを設置し、映像製作に大きく貢献しました。
日本でも東映ツークン研究所が日本で初めて導入し、日本におけるバーチャルプロダクションの先駆者として活動されました。日本の映像製作文化の違いや米国の機器であるが故のシステム不具合などがあり、なかなかうまく運用はできなかったという点はありますが、日本にとって非常に大きな転換点になったことは間違い無いでしょう。

ここまでで、スタジオ内のカメラをトラッキングし、合成結果を確認するというバーチャルプロダクションの基本的な手法に至るまでの技術革新を見てきました。
プリビズから、バーチャルカメラ、オンセットビズという変革は、現在のバーチャルプロダクション技術の礎となっていることをご理解いただけたのでは無いかと思います。
次の投稿では、LEDパネルを使った背景表示方法が構築されるまでの技術革新を見ていきたいと思います。

P.S.
発表資料をご参考までに添付します。

この記事が気に入ったらサポートをしてみませんか?