見出し画像

「共同研究『Plant Vision 360』:〈環境=身体〉論に基づくVR映像制作の試み[II]」周辺で考えたこと

この記事は桑沢デザイン研究所 研究レポート No.51 2023に収録されている「共同研究『Plant Vision 360』:〈環境=身体〉論に 基づくVR 映像制作の試み[II]」に関するテキストです。レポートには入らなかった今回これを作るにあたって考えたこと、その周辺のことです。先にこのレポートを読んでいただくと内容がよくわかると思います。それぞれの章立てに対して、このテキストは述べています。前提が必要なテキストで申し訳ないのですけれど。

前年、「共同研究『Dog Vision 360』:環境=身体論に基づくVR映像制作の試み」でイヌの視覚というものをVRで表現した後に、これについてはもう少し別の対象を選んでやってみようと話を共同研究者の御手洗先生としていました。イヌをやったので、次はネコとかウマとか、意外と昆虫まで飛躍するかなとか僕は考えていました。その後、夏前に御手洗先生に提案されたのは植物でした。あぁ、全然かなわないなと思い、そのままその方向で考えることにしました。

僕自身は人とモノを作ることが多いです。複数人で作ることでうまくいかない時ももちろんあるのですけれど、自分1人では考えつかないところに連れて行ってもらえるという面白さを感じます。僕自身が相手に何を提供できているのかはわかりませんが。

今回、このレポートで述べている『Plant Vision 360』については以下から見ることができます。

「1.共同研究の目的...<環境=身体>論の視点 から、植物によって生きられる世界を、調査 ・ 制作する」について

前作『Dog Vision 360』はもちろん、イヌの視覚の再現というものを目指して作っていましたが、イヌの興味のあるものにどういったアテンションをつけるかというのが1つの課題として設定しました。ここで述べるアテンションとは注意・注目という意味です。

これは平面モニタの画面の中でも頻繁に起こることですが、見て欲しい場所をどのようにしてみてもらうかということが映像を作って行く過程で重要になりました。VRの場合、360度見渡すことができるので、見てほしい場所をどのようにして注目を集めるかは今後多くの人が使うようになるに連れて大きな課題になるだろうと考えます。

『Dog Vision 360』は200人近くの人からフィードバックをもらえたということはとても有益なことでした(ご協力いただいた方はありがとうございました)。結果、最初に出てきてドッグフードを積んでいる人をずっと見てしまう人がいて、アテンションがまるで機能していない人もいるのだなと気付いたり(機能しないモノを作った人が悪いです)、様々な新たな課題を見つけました。今回消化できた部分もありますし、できなかった部分はまた今後消化していきたいです。特にゲームがどのような表現で、アイテムなど重要な要素に注目させているかはもっと調べていかなくてはいけないなと感じています。これについては、次の作品で反映させるためにしばらく色々なゲームをしないといけません。

また、研究レポートであげている『ゲームUIの新たな種類、alter-sensoryとその分類方法』については以下から読むことができます。代替感覚要素の表現については面白く、今後調査要素の1つになると考えています。

VR元年が言われ続けて、もう何年も経過してしまい、VR単独で一般に普及するのは現在の状況では難しいのだろうなと個人的には感じています。きっと現在の現実的な需要としてはバーチャルな世界で生活をするのはなく、現実の生活にどのような価値をもたらすかということなのでしょう。それは、Apple社のApple Vision Proの目指す空間コンピューティングもそうですし、XREAL社のXREAL Air2やXREALAir 2 ProなどのARグラスが売れていたり、各社VRではなく軸足をVRやAR、MRなどを統合したXRに軸足をずらしてきたことからもそれはわかります。また、現実で受ける感覚を補強・拡張・代行するという方向のものが出てきているのも興味深いと思います。視覚でいうとVixion社のVixion 01は遠くのものにもピントを合わせることができるアイウェアです。また、同社によるHOYA MW10 HiKARIは暗い所のものが見えるようになるアイウェアです。この手のものは補聴器も同じでしょうし、ARと同じように普及していく気がしています。

「2.「Plant Vision 360」... VR 映像制作の試み」について

人間の見た目と同じように見せるためには解像度がどれくらい必要かという研究はいくつかありますが、撮影は追いついてもまだ見せる方がまだ到達していないのが現状です。ただ、2024年に発売されたVarjo社のVarjo XR-4などは、片眼で4K近い解像度があったりするので、時間の問題でしょう。

今回制作した『Plant Vision 360』については人間の見た目と同じような解像度は必要ないので、前回に引き続き、深圳嵐ビジョン社のInsta360 X3、そして空間音響を使用したのでズーム社のH3-VRを使用して撮影を行いました。

今回は植物の視覚(というより感じる世界)を作るにあたって、植物関連の本をいくつも読みましたが、人間よりずっと多くの感覚を環境から得ていることがわかりました。人間が視覚に頼りすぎていて、他の感覚があまりにも発展しなかったのではないかとさえ思います。映像で作品としてはアウトプットしないといけないので、多くの感覚を視覚と聴覚に集積させる必要があり、取捨選択しています。そこが次への課題でもあるのでしょう。

アテンションについては、前回から引き続き解像度を上げる、空間音響は使用しました。また、アニメーションによる表現は『Dog Vision 360』で使ったソナーのような表現とは変えて行いました。このアテンションについては前述の通り、ゲームの研究をもう少しすることで、そのバリエーションを今後増やしたいと考えています。解像度を上げることについては『解像度制御を用いた視線誘導』を参照にしていますが、以下から読むことができます。

「3. まとめ」について

一度作りきらないと先になかなか進めないので、作って・反省して・次を作るということを繰り返していきます。その過程の1つの出力が『Plant Vision 360』でした。今回作って思ったことは、まだまだ先があるなという感触でした。今回の共同研究者である御手洗先生も次へ向かってリサーチを始めたみたいなので、僕も僕なりに次へ向かってリサーチを始めたいなと思います。

最後に『Dog Vision 360』の時と同様に撮影に付き合っていただいた方には本当に感謝しています。12月の朝早く、だいたいの設定しか伝えていないのにそれぞれに解釈してもらい、演技をしてもらいました。何故だか演技が上手くなった気がするのは何故なのでしょうかね。

今回もありがとうございました!

この記事が参加している募集

#つくってみた

19,349件

この記事が気に入ったらサポートをしてみませんか?