見出し画像

ARKit 3.5について情報収集

遅ればせながら明日LiDAR搭載のiPad Proが届く。世にはすでに多くの情報やデモや記事が流れているので雑多に貼っていく。

・メッシュの可視化(メッシュを描画してるだけじゃなく、デプスによって線の色を変えている。これはやりたい)


・LiDARの光の可視化(infrared:赤外線)

・検出した平面の可視化(面だけではなくClassificationも可視化しているのがいい)

・ARFrameのcapturedDepthDataは空っぽなのだろうか?ドキュメント見に行くといまでもFace Trackingのときしか(つまりフロントのTrueDepthカメラ利用時しか)ここにデプスデータは入ってこないっぽい感じなので、LiDARの生デプスが今のところ得られないというのはたぶん本当だろう。(というかまぁAppleの中の人が断言してるからそりゃそうか)



・LiDARについての考察

今回iPad Proが採用したLiDARは、センサーの素性の詳細はわからないものの、「直接型」と呼ばれる形式であることが分かっている。
直接型とは、レーザーを直接物体に飛ばし、それが反射して戻ってくるまでの時間を計測するタイプのもの。シンプルで反応が速く、遠くまで計測するのに向いていることから、自動車向けなどはこちらの採用が多い。
しかし直接型LiDARは、あまりに光がすぐに戻ってくる範囲、すなわち近くで精度を出すのが難しい。そこを改善しようとすると、大型化しやすい。
そのため今のスマホ向けでは、「間接型」と呼ばれる仕組みが主流だ。これが先ほど「ToFセンサー」と表記したものだ。間接型は、何度か光を計測し、その位相差から距離を算出するもので、デジカメ用イメージセンサーの技術を応用して作れる。近くを高解像度でスキャンできるのが特徴だが、暗い場所や遠くの認識を狙うと消費電力が上がる、という欠点がある。
アップルはスピードや省電力化のために直接型LiDARを採用したのだろう。だが解像度も上げたい。そこで、いままでARKitで使ってきた画像処理での空間把握を組み合わせたのではないか。

## 実機で試す

ここから先は

111字
文章やサンプルコードは多少荒削りかもしれませんが、ブログや書籍にはまだ書いていないことを日々大量に載せています。たったの400円で、すぐに購読解除してもその月は過去記事もさかのぼって読めるので、少しでも気になる内容がある方にはオトクかと思います。

技術的なメモやサンプルコード、思いついたアイデア、考えたこと、お金の話等々、頭をよぎった諸々を気軽に垂れ流しています。

最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/