見出し画像

厳冬の赤岳鉱泉でプロジェクションと配信をやりました

当社では9年くらい?前から八ヶ岳の山小屋、赤岳鉱泉が毎年冬に開催しているアイスキャンディフェスティバルに協賛しています。基本的に実行委員的ななかでテクニカルな部分を担当したり、自社で売ってる珈琲を提供したりしています。

今回は3年ぶりの現地開催ということで、氷壁に映像を投影するのと、ライブ配信を主に担当しました。結果として満足のいくものではありませんでしたが、どういった準備をして、現地で何が起こって、どう対処したのかを備忘録的に書いておこうというのが本稿の趣旨です。

結論から言うとトラブルがたくさん発生して自分たちで写真を撮る暇がありませんでした。写真は当日入っていた渡邊有信カメラマンと8knotの菊池さんの写真をお借りしました。

プロジェクション編

赤岳鉱泉さんからのリクエストは、滝を流してほしいというものでした。総尺は30分ほど。現地は標高2000m超の高所で、当日は気温マイナス10℃にもなるような極寒、雪が降ることもあるなかなか厳しい環境です。実は過去に2回ほど同じようなことをしているので、ノウハウとしてはある程度持っていました。これは下記のようなものです。

樹脂被覆のコード、ケーブル類は氷点下では固くなってしまって、取り回しがとてもやりづらくなる。
外気温が低すぎるとノートパソコンのバッテリーに影響があるため、正常に動作しなくなることがある。
液晶などの画面類はレスポンスが非常に悪くなる。
投影面が氷のため、光が拡散してしまう。細かいディテールは表示することができない。
屋外から屋内へいきなり運ぶと結露が恐ろしいことになる。

これの対策としてはパソコンを温められるブースを設置したりすることです。コードが固くなるのはもう耐えるしかありません。プロジェクタは自社で新しいのを購入して光量を確保することにしました。

プロジェクションは3部構成で、1部と3部はリクエストのあった滝の映像をながし、間の2部はMOONBOARDのように氷壁上に課題を投影して登るというミニゲームを作ることにしました。

ミニゲームはJavaScriptを使って簡単に作り、チップチューンのBGMに合わせて登ってもらうという趣向にしました。ゲーム自体は現場で課題を作りやすいように、課題作成機能、課題書き出し機能、テストパターンなどを作成してまあ、わりとちゃんとしたものができたと思います。操作はコンソールで直接関数をコールして行います。

テクリハの様子

滝自体は動画素材でもよかったんですが、どうしてもパーティクルでやりたくなってしまってTouchDesignerで作りました。TouchDesignerを使いたかっただけかもしれません。棒状の物体をパーティクルとして生成させ、フィードバック回路を使って滝のような雰囲気を持たせるようにしています。

プロジェクタを縦にしようってことで重力場を90度回転させたりしたやつ

これらのコンテンツをMadMapperで投影します。ブラウザはNDI Scan Converterを、TouchDesignerはSyphonを使ってそれぞれMadMapperに信号を送ります。
これ以上ない見事な構成です。僕自身「これは勝ち確だな」と思っていました。

イベントの1週間前に行った現地テクニカルリハーサルも順調で、プロジェクタの位置をちょっと調整する程度でした。が、事件は当日起こりました。

天候不良と技術トラブル

当日は夜のクライミングのため安全面を最優先するべく、事前にクライマーとゲームを操作する僕で打ち合わせを行いました。テストパターンなどを投影して実際に登ってもらいながら、課題を作っていくというものです。ところが、クライマーからは「ブースからは課題がしっかり見えているが、氷壁上からは課題よりも氷の凹凸の方がコントラストが高くてうまく認識できない」というフィードバックをもらいました。コントラストを上げるにはプロジェクタを複数台使って映像を重ねるしかありませんが、もうそんな余裕はありません。さらにここへ来て天候が急変。周りは雪と霧が立ちこめる超ハードなコンディションになります。

霧によって光はさらに拡散し、課題は見えるけどますます難しい状況となりました。そこで、クライミングゲームについては中止という判断をしました。かわりに、滝のプロジェクションの中をそのまま登るナイトクライミングを入れ込むことになりました。

さらに次の問題が発生します。Syphonから信号が得られなくなったんです。開始まで残り15分というところで、予想を遙かに超えるトラブルが発生したことになります。再起動しても何をしてもSyphonが使えません。このままでは夜のイベントが1つまるまる消し飛ぶことになります。

いろいろ試すうち、パーティクルのプレビューに使ったビデオ書きだし機能が使えるのではないか?と思いつきました。300フレームのビデオ動画をMadMapperでループ再生すれば似たような状況を作れるのでは?と。
早速試してみたところなんとかうまくいきそうでした。天候と氷による光の拡散によって、動画を使用したことによるなんとなくループしてるのがわかっちゃうのも回避できました。

動画メディアを読み込んで急場しのぎの投影をつくった

毎年発生する低温問題は今回は発生せず、また、この後の準備時間を長めに取りたいということで、映像投影の時間を10分短くしたことも奏して、これ以後は大きなトラブルはありませんでした。

エフェクトは拡散してるけど、ウェアには映ってるのがわかる

お客様からは歓声が上がったりしていたので、結果としてはうまくったと言っていいと思います。僕は肝を冷やしましたし、満足するにはほど遠い結果となりました。

ライブ配信準備編

ライブ配信は偶然にも直前に届いたSTARLINKを使うことで企画が持ち上がりました。STARLINKはプロジェクションのテクリハ時に持ち込んで、リンクが正しくされるかなどのチェックを済ませてありました。

ネットがつながるのであればあとはカメラの設定などです。
MCと最大2名の出演者、パソコンのスライド表示とPAスピーカーへの接続、カメラは1台、バックアップ用のレコーダーを介してOBSでネットにデータを流すという想定で仕込み図を作成しました。

iPadを使って動画のポンだしを行い、各セッション間の待機画面を作ったりと準備は当日にかなり進める強行軍でした。
準備中にいくつかの機材が使えないことがわかりました。STARLINKのルーターと映像をWiFiで飛ばす機器の相性が悪く、これがまず機能しませんでした。バックアップとして用意したSDIケーブルを使った映像伝送も、ケーブルが長すぎたせいかノイズを拾ってしまい難しい状況に。

ポンだしのiPadで使うソフト(上の画像ではAero Casterと書かれてますが別のVJアプリです)は、動画ファイルを読み込ませると落ちるという致命的バグにより使用不可。MacからBMD Micro Monitorを使ってポンだしシステムを作ろうとするも、Thunderboltケーブルがなくてできず、最終的に舞台演出などで使われるQLabを1日分だけ購入して対応しました。はじめて使ったのでよくわかってなかったんですが、とりあえず映像が出せればいいので、キューリストを事前に作っておき、再生が済んだ動画はリストからどんどん外していくという運用にしました。

さらには、スライド内の動画を音を出して再生したいというリクエストがあって、仕込み図どおりの配線が行えなくなりました。持ち込んだケーブルを総動員しても、音声を分岐する手段がないため、配信段からPAスピーカーへ音を送ることにしたのですが、わずかなラグがフィードバックを生んでしまい、レベル調整にかなり苦労しました。

最終的な構成

ライブ配信での技術トラブル

配信は19時半からで、19時20分からお待ちください動画を流す想定でおりました。19時には準備を終えて、配信を開始するべく映像の送出をはじめます。ところが、送出はされているはずなのに、YouTube側まで映像が到達していないのです。テスト時はうまくいっていたのですがさっぱり原因がわかりませんでした。
結局時間までにこのトラブルは修正ができず。レコーダーを回して後日配信ができるようにしておき、イベントを先行して始めてもらいました。10分ほどして映像がYouTubeに到達したことを確認、途中からですが配信をはじめることができました。しかしこれも1時間ほどして別のトラブルに見舞われます。

STARLINKは下りは速いのですが、上りは速いときで20Mbpsくらいと配信を行うにはちょっと心許ないパフォーマンスです。で、これが平均値であるかというとそうではなく、衛生の切り替えなどのタイミングで回線が切れることがしばしばあります。これはバッファを多めに持たせることで回避はできるんですが、時間経過とともに頻繁に回線断が起きるようになり、あっという間にバッファを使い切ってしまいます。

たびたび切れるという話は別の方から聞いていたのですが、後半は半分くらいのパケットがロスしているような状況で、かなり想定とは異なっていました。そして運が悪いことに後半に著名ゲストを迎えたトークショーが予定されていました。回線の状況を逐一報告しつつ、バックアップ手段としてInstagramでライブ配信を行い、待機していた視聴者の方にはそちらへ移動していただきました。

また、音声が何をやってもゆがむという現象にも悩まされました。配信をしながらスイッチャなどの設定を見ていったところ、スイッチャのマスターアウトが-10dBという変な設定になっており、落ちてしまった音声をPA側で無理矢理起こしていたので音がゆがんでいたという結論になりました。いつこの設定になったのか全くわかっていないので、次回以降はセットアップ時設定を初期化するようにしようと思いました。

これからどうするかを考える

今回のプロジェクションや配信は山小屋という特殊な環境で行われたものなので、柔軟な対応が求められます。しかし、物資をたくさん持ち込むと言うことも難しく、ある程度のトラブルを事前に想定しておき、プランDくらいまでの状況にあわせた機材を持ち込むようにしなければなりません。

プロジェクションについては光の拡散が問題でした。プロジェクタを複数台設置するか、レーザーを使った投影に切り替えて問題解決を図れるかもしれません。TouchDesignerからレーザー投影をそのままやれるらしいし、EatherDreamあたりならそれほどコストもかからずにやれるみたいです。

配信については衛星回線が次のイベントまでに改善している可能性があります。しかし今回のようなトラブルが起こる可能性も同じくらいあります。
無線機器の使い方を見直すのと、OBSの設定を詰めてみようかなと思っています。
幸いにも会場の大きさなどは今回の配信でケーブル長に至るまでのデータを取ることができているので、持ち込むケーブル量が増えそうですが、安定した構成を作ることができるはずです。
実験用のSTARLINKは先週弊社に届きました。

アイスキャンディフェスティバルは弊社のクリエイティビティの実験場のようになっています。毎回毎回変な企画を考えても、これをしっかり受け止めていただいている赤岳鉱泉さん、企画に付き合ってくれる弊社をはじめ協力会社の皆様、そして失敗しても一緒に楽しんでくれるお客様にこの場を借りてお礼申し上げます。次回もまたすごいことを考えて持ち込もうと思っておりますので、ご期待下さい。

使用機材

プロジェクション
プロジェクタ:BENQ MH550
パソコン:MacBook Pro(M1 Max 2021) メモリ64GB 
ソフトウェア:TouchDesigner、MadMapper、NDI Scan Converter

配信
回線:STARLINK(株式会社山と人さん提供)
スイッチ:ROLAND V-1HD+
ミキサー:Zoom Livetrak L8(パンダスタジオ)
PA:BOSE S1 Pro(パンダスタジオ)
マイク:SM63,XSW2台
メインカメラ:Sony FX-3(株式会社山と人さん提供)SDIに変換して伝送(ノイズ乗っちゃった)
プロジェクタ:BENQ MH550(端子の都合で急遽使用)
レコーダー:BMD Video Assist 7 HDR
モニター:メルカリで買ったカメラに付属してたやつ
ソフトウェア:OBS、QLab
パソコン:MacBook Pro(M1 Max 2021) メモリ64GB を2台


よろしければサポートをお願いします。得られたお金は社で飲むコーヒー豆や撮影機材の購入費用に充てようと思っています。