ARKit 3.5について情報収集
遅ればせながら明日LiDAR搭載のiPad Proが届く。世にはすでに多くの情報やデモや記事が流れているので雑多に貼っていく。
・メッシュの可視化(メッシュを描画してるだけじゃなく、デプスによって線の色を変えている。これはやりたい)
・LiDARの光の可視化(infrared:赤外線)
・検出した平面の可視化(面だけではなくClassificationも可視化しているのがいい)
・ARFrameのcapturedDepthDataは空っぽなのだろうか?ドキュメント見に行くといまでもFace Trackingのときしか(つまりフロントのTrueDepthカメラ利用時しか)ここにデプスデータは入ってこないっぽい感じなので、LiDARの生デプスが今のところ得られないというのはたぶん本当だろう。(というかまぁAppleの中の人が断言してるからそりゃそうか)
・LiDARについての考察
今回iPad Proが採用したLiDARは、センサーの素性の詳細はわからないものの、「直接型」と呼ばれる形式であることが分かっている。
直接型とは、レーザーを直接物体に飛ばし、それが反射して戻ってくるまでの時間を計測するタイプのもの。シンプルで反応が速く、遠くまで計測するのに向いていることから、自動車向けなどはこちらの採用が多い。
しかし直接型LiDARは、あまりに光がすぐに戻ってくる範囲、すなわち近くで精度を出すのが難しい。そこを改善しようとすると、大型化しやすい。
そのため今のスマホ向けでは、「間接型」と呼ばれる仕組みが主流だ。これが先ほど「ToFセンサー」と表記したものだ。間接型は、何度か光を計測し、その位相差から距離を算出するもので、デジカメ用イメージセンサーの技術を応用して作れる。近くを高解像度でスキャンできるのが特徴だが、暗い場所や遠くの認識を狙うと消費電力が上がる、という欠点がある。
アップルはスピードや省電力化のために直接型LiDARを採用したのだろう。だが解像度も上げたい。そこで、いままでARKitで使ってきた画像処理での空間把握を組み合わせたのではないか。
## 実機で試す
最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/