AR的、virtualproductionにトライして一旦挫折
仮想と、現実のカメラ合わせ的なやつは、とりあえず保留。
blueprintスキルが上がったのでよし。
Basestationと、trackerの位置が取れるけど、その数値がどういう風になっているのかが、よくわからない。
のと、やはりトラッキングの精度は、値段に応じた感じではある。
固定の位置する楽器に紐づけて、そのUIを出す、というのはできる。
が、移動する物に、とカメラとその空間をよりらしく見せるのは、ライティングの状況と合わせないといけない。
という手作業キャリブレーションは、おそらくそれだけで3時間以上はかかるだろうから、現場に持ち込みに対応させるためには、自動化させる必要が当然あって、今の機材の質だと自分のスキルだと厳しそう。
とりあえず、Notch篭しよう。うむ。
あと三日。
NDI+WIFI(HDMI OR SDI)配信のずれは、TouchDeisgner内で、早い奴をキャッシュであえて送らせて、OBSに(TouchDeisgnerで直にツイキャスしたら、落ちまくった。おそらくOBSの方は、接続に関しての仕組み、ロジックの組み方が上手いのかと。)
この記事が気に入ったらサポートをしてみませんか?