![見出し画像](https://assets.st-note.com/production/uploads/images/113178652/rectangle_large_type_2_97620236e2037619d22f848f1a4c8720.png?width=1200)
iFacialMocap Powered by NVIDIA Broadcastをバーチャルモーションキャプチャーに連動させる使い方
最近、iFacialMocap Powered by NVIDIA Broadcast というソフトがリリースされました。
iPhoneで顔表情を認識して、PCでアバターを動かせるiFacialMocapというソフトのPC版に相当するソフトです。
以下からダウンロードできます。
従来のソフトウェアと異なり、RTXシリーズを搭載しているPCでは、Webカメラを使うだけで利用でき、速度も軽快で、非常に便利なのですが、使い方の説明が公式に特にないようだったので、書いてみます。
今回は、特にVMCProtocolに対応しているということで、バーチャルモーションキャプチャーと連動させてみます。一部ソフトウェアとは正常に連携できない場合もありますが、とりあえずバーチャルモーションキャプチャーでは正常に動くようです。
まず、Microsoft Storeからダウンロードします。期間限定で無料のようですが、有料の場合はMicrosoft Storeにクレジットカード情報を登録したりする必要があると思います。
![](https://assets.st-note.com/img/1691835436963-5iNC5wuRBS.png)
起動すると、このような画面になると思います。
![](https://assets.st-note.com/img/1691835499436-VNNcAr4CkS.png)
Inputが、NVidia BROADCASTになっていない場合、選択肢から選択し直しておいてください。
この状態で、ここのiマークを押します。
![](https://assets.st-note.com/img/1691835588447-uap1Wk3whw.png)
するとブラウザが立ち上がり、NVidiaのサイトが開くはずです。
![](https://assets.st-note.com/img/1691835623188-2I1JH4D4jf.png?width=1200)
下にスクロールし、ARの項目の、お手持ちのグラフィックボードにあったものをダウンロードし、NVidia AR SDKをインストールしてください。(RTX40シリーズ、30シリーズ、20シリーズでそれぞれ異なるようです。)
![](https://assets.st-note.com/img/1691835664083-LnTFGz1MVj.png)
インストールが終わったら、iFacialMocap Powered by NVIDIA Broadcastを再起動します。すると、ウィンドウが増えるはずです。
![](https://assets.st-note.com/img/1691835762559-02B4ES84ec.png?width=1200)
適切なWebカメラがPCに接続されているにも関わらず、iFacialMocap Inputウィンドウに何も写っていない場合は、「Open Advanced Setting >>」をクリックし、NVidia Camera Indexを変更します。
![](https://assets.st-note.com/img/1691835848356-lr2kiPxlK1.png?width=1200)
肌色の男性の顔のようなものが映れば成功です。
もし、万が一、実写映像のほうがお好みの場合は、NVidia Input DisplayをCameraに切り替えることで実写映像になります。
![](https://assets.st-note.com/img/1691835963330-d7Jgsaq36V.png?width=1200)
次に、バーチャルモーションキャプチャーと接続します。
バーチャルモーションキャプチャーのセットアップ方法については、別のサイト等をご確認ください。
iFacialMocap Powered by NVIDIA Broadcastの、Outputを、VMC Protocolに変更します。
![](https://assets.st-note.com/img/1691836200688-4pYXDhwMQ1.png?width=1200)
BlendShape Typeを、VRMに変更します。
![](https://assets.st-note.com/img/1691836249302-StB1b4IijC.png?width=1200)
Connect to VMC Protocolボタンを押します。
Disconnect表示になればOKです。
![](https://assets.st-note.com/img/1691836289894-cyoXwTgTFT.png?width=1200)
バーチャルモーションキャプチャーを起動し、アバターを読み込みます。
![](https://assets.st-note.com/img/1691836427282-Sr6FA3ecSM.png?width=1200)
詳細設定を開き、「OSCでモーション受信を有効にする」にチェックを入れ、閉じます。
![](https://assets.st-note.com/img/1691836479085-NmqCjc1mHY.png?width=1200)
顔が連動します。
![](https://assets.st-note.com/img/1691836522885-RfVOBrvgaY.png?width=1200)
顔の表情のプルプル具合がダイレクトに反映されて具合が悪い場合は、
Settings for smoothing のBlendShapesの値を変更するとスムーズになります。
なお、この値の微調整は一度Disconectを押してからもう一度、Connect to VMC Protocolを押さないと反映されないようです。
![](https://assets.st-note.com/img/1691837425077-Lwo3lzfXgA.png?width=1200)
バーチャルモーションキャプチャーを除く、ほとんどのアプリケーションでは、顔が壊れたり首が壊れたりすると思いますので、その場合は、Use BlendShaples以外のチェック(Head, Eye, Body)を外すとうまくいくと思います。
また、BlendShaple Type: ARKitも、動くアプリケーションが限られるようです。(表情の大文字小文字を厳密にチェックするアプリでは動きません。バーチャルモーションキャプチャー v0.56b1など。EVMC4U系では動きます。)
![](https://assets.st-note.com/img/1691838043573-F8QbjZYdKH.png?width=1200)