見出し画像

iPad Proの新機能LiDARスキャナで何で盛り上がってるの??

先日,Appleが突如発表した新型iPad Pro(第4世代)
Macbook Airも合わせて市場に投入されました.

世界中のAppleストアが閉店している今販売開始するという勇断.

特にiPad Proはタッチパッドに対応し,カメラ性能も大幅に向上.
もはやプログラミングを除けばノートパソコンを超える取り回しの良さと独自のユーザー体験を約束してくれるに違いありません.

そして新機能の中でもガジェット系のニュースサイトやTwitterで散見されたのは「LiDARスキャナ」について.耳馴染みがない方からすれば「Appleが新しく開発したから" i "が小さいのかな」だったり「もてはやされてるけど何かわからない」だったりと思われるかもしれません.

LiDAR(ライダー)は"Light Detection And Ranging(光検出と測距)"の頭文字をとって名称で,照射したレーザー光が物体に当たって跳ね返ってくるまでの時間を計測し、物体までの距離や方向を測定する原理です.
※ 本によっては"Laser Imaging Detection and Ranging(レーザー画像検出と測距)"となっているものもあります.厳密な原理は割愛させてください.

Appleのプレスリリースを一部抜粋すると以下の通り.

画期的なLiDARスキャナ

画期的なLiDARスキャナが、これまでどのモバイルデバイスでも不可能だった機能を可能にします。LiDARスキャナは、最大5メートル先の周辺の対象物までの距離を計測し、屋内でも屋外でも使うことができ、ナノ秒のスピードで光子レベルで動作します。iPadOSの新しい深度フレームワークは、LiDARスキャナが計測した深度ポイント、両方のカメラとモーションセンサーからのデータを組み合わせ、さらにA12Z Bionicのコンピュータビジョンのアルゴリズムで強化されて、シーンをより詳細に理解します。これらの要素が密接に統合されて、iPad Pro上で全く新しいレベルのAR体験が可能になるのです。

これはApple独自の技術ではありません.
LiDARは様々な分野への応用が期待されていますが,最も研究が盛んなのは自動運転の領域です.

画像2

車が移動するときに位置を推定したり周囲の環境をマッピングしたりするSLAM(Simultaneous Localization and Mapping)という技術においてLiDARは重要な役割を担います.

カメラの画像を利用したVisual SLAMという手法と比べて,レーザーセンサを使うLiDAR SLAMは高精度です.その代わり価格も高いという難点を抱えていました.またサイズにも課題がありました.

ところが競争や開発が進む中で,低価格のLiDARも登場してきました.

そして,件のiPad Proに搭載されるまでになったのです.

LiDARには雨天だと精度が下がるなどの弱点もあり,もちろん万能ではありません.
※ ちなみに雨天ではミリ波レーダーなどが有効とされています.カメラ,LiDAR,ミリ波レーダーの役割分担は自動運転のセンシング技術の要です.

画像1

しかしながら,LiDARによってこれまで以上にAR機能が強化され,Appleのいう「全く新しいレベルのAR体験」が可能になるでしょう.
これの意図として,ひとつに従来の煩わしさからの解放が期待されます.具すなわち,平面が検出できなくてスマホを色々な角度に回転させたり,座標のずれたオブジェクトを何度も出したりしまったりしなくていいということです.

これまでも長い説明書を排除したり,IDで紐づいたデバイス間がシームレスに繋がったりとストレスフリーな体験を追求してきたAppleだからこそ,ユーザーとしては楽しみです.

画像3

僕もこのLiDARは積極的にARに活用していきたいと考えています.
ぜひ一緒に何かしてみたいと仰ってくださる方がいればご連絡ください!

特にARに関心のあるエンジニアがいらっしゃったら以下にDMください.
もちろん四方山話でも嬉しいです!

あと石油王がいたら,僕にiPad Proを買ってください...!泣

この記事が参加している募集

会社のみんなとドーナツ食べます。