見出し画像

YouTubeでの配信環境

こんにちは✨ さくらです

このマガジンでは、さくの配信環境についてご紹介しています!

今回は、
YouTubeでVRoidアバターを使用して配信するときの環境について
ご紹介します!

YouTubeでライブ配信するときには

①音(声、楽器、音源等)をどのように配信するか
②アバターをどのようにトラッキングするか
③音、アバター、画像(動画)をどのように合成するか

という3点がポイントになります。

REALITYで配信する時は
アプリを開いて配信開始すればアバターが自分に合わせて動き(②)
マイクの音と合わせて配信してくれる(③)ので
①だけクリアしてしまえば問題ありませんでした。

しかし、REALITYを一切使わない場合は、
①②③を全て自分で用意しなければなりません。

①音(声、楽器、音源等)をどのように配信するか

わたしの場合、
歌唱する場合の音(声、楽器、音源等)の配信方法は
REALITYで配信するときとほとんど変わりません。
(実況配信をするときは
 ヘッドセット(+変換アダプタ)単体で配信しています。)

REALITYはiPadで配信していますが、
それがもう一台のPC(Windows)に置き換わるだけです。

アバターをトラッキングする方法によっては
PC1台で済むかもしれませんが、
わたしの場合もともとMacを利用して配信していたこと、
また
・アバターを動かすPC(Windows)
・音を作る(エフェクトをかけたり、楽器の音色をかえる)PC(Mac)
の2つに分けることで
負荷を分散させたい、というところがあり
配信をするのとは別のPCから
オーディオインターフェースを経由して演奏を配信しています。

②アバターをどのようにトラッキングするか

次にアバターのトラッキング方法です。

アバターは、VRoid Studioで作成したアバターや
BOOTHで購入したアバターを使用しています。

トラッキングにはLuppetLeapMotioniFaicalMocapを使用しています。
(最近ハンドトラッキングが面倒で
 LeapMotionはあまり使っていないです。。。)

LeapMotionは首からかけて使うので、ネックマウンタも購入しました。

LuppetとLeapMotionは、
使用するPCにある程度スペックが求めらるので
購入する際は注意が必要です。
Luppetは体験版があるので、
実際に自分のPCでアバターが動くのか試してから購入するのがおすすめ!

そして、iFaicalMocapで表情、顔の動きをトラッキングし、
Luppetと連携させることができます!
FaceIDが利用できるiPhoneまたはiPadが必要になります。
 他にも条件があるので、先に確認しておくことをオススメします。)

FaceIDを利用できる端末を持っていない場合は、
Webカメラを使用しましょう!

ただ、使ってみて少し困ったのは、
自分の体の前にマイクスタンドを設置して、
ダイナミックマイクで歌うため、
LeapMotion(手のトラッキング)がうまく反応しないことがあり、
ちょっと考え中です。。。(音楽配信ならではかも。。。)

>追記
毎回使用する前に、
Leap Motionの設定から「デバイスの再調整」を行うことで
うまくトラッキングできるようになりました!

③音、アバター、画像(動画)をどのように合成するか

OBSというソフトウェアを使用します。

このソフトでLuppetで動くアバター、背景やタイトル、音楽を合成し、
YouTubeで配信します。

さいごに

ざっくりとではありますが、
3Dアバターを使用してYouTube配信する方法をご紹介しました!

トラッキング方法や演奏配信の仕方はさまざまなので、
自分にあった配信環境で配信できるとよいですね✨

それではまた!



いただいたサポートは記事や動画制作・配信・ワールド制作のために使わせていただきます🙏✨