見出し画像

AR時代を見据えたAppleとGoogleの動きに関する考察メモ

AR市場でビジネスをいま展開している企業は、サーファーに近い。

ARグラスの波が、いつ、どのように来るのかをちゃんと読み切って、沖に漕ぎ出すことが至上命題になっている。

沖に出るのが遅すぎても早すぎてもダメだし、漕ぐ方向や浜を間違えていると大きな波を乗ることはできない。

その意味で、昨今のAppleとGoogleそれぞれの動き、両社の方向性の違いは波を予測する上で非常に助けになるので、現時点で感じるところをまとめておきたい。


今年のAppleのWWDCでの発表は、完全にARグラスを見据えている

画像4

以下3つの観点からAppleは表立っては言っていないけど、相当ARグラスを見据えて動いているなと思った。

1. デザインシステムの変更

以下ツイートでも指摘があるように、今回のiOSのデザインシステムの変更は相当ARグラスを見据えたアップデートになっている。
MicrosoftのFruent Design SystemがMR展開を見越したものであったのと同様の動き。

a) アプリアイコンが3D化し影が付いた

画像1


b) Siriの立体化

画像3

c) アプリのウィンドウの角が丸くなった。
ARで見るときに危険性を与えないため。

画像2


2. インストールが要らないアプリ規格のAppClips

アプリの一部機能をインストールしていなくても使用できるようにするApp ClipsがiOS14から搭載される。
(GoogleのInstant Appに相当するもの。)

ARグラス時代には、アプリレス体験が必要で、App Clipsはそれを実現するために必要なものだ。

ARアプリにはインストールのジレンマがある。

ワイン情報を提示してくれるアプリをインストールしていれば、ワインが目に入ったときにそのアプリが情報を提示できるが、そもそもアプリを入れていなければワインを見たときに情報を教えてくれることや、その情報が価値あるかどうかが分からないからだ。

したがって、ARグラスは目の前の景色や音などに最適なアプリをユーザーが事前に選んでダウンロードせずとも、インストールレスでマシン側が勝手に最適なアプリの情報を提示する必要がある。

App Clipsはそれを実現するためのものだ。


3. Spatial Audio

AirPods Proに新しく搭載されるSpatial Audioは、加速度で頭の動きに合わせて現実世界の特定の方向・スポットから音を鳴らすことができるので、ARグラスで視界外の情報に気づかせたり、仮想オブジェクトの実存感を増したりなど、AR体験の質を向上させる上で非常に重要なピース。


4. その他直接的なAR関連アップデート
AR Kit4、Location Anchar、Mapの進化、Depth API、顔認識の進化など直接的にARの体験向上につながるアップデート群を見てもAppleがAR時代を相当見据えていることが伺える。


Apple Glassの初期の最大価値は「Airpodsの動画版」

Apple Glassが出たときに、みんな買うんだろうかという疑問は自分の中にもずっとあったのだが、Airpodsの爆発的ヒットを見て、Apple Glassも爆発的に売れるだろうなと思った。

Airpodsが超シームレスに音楽聴けるだけでバカ売れしたように、AppleのARグラスも超シームレスに動画が大画面で観れたり、Macのサブディスプレイになるだけでバカ売れするだろう。

TV、ディスプレイ、プロジェクターに払ってる金額を考えると一桁万に収まってればアーリーアダプター層までは買う。

それを見越してAppleは、動画見放題の「Apple TV+」や、iPadをすぐにサブディスプレイにできる「Sidecar機能」、「動画のPicture in Picture」、Airpodsの3Dサラウンドシステム、などを立て続けにリリースしている気がする。

そして、デバイスがアーリーアダプター層まで行き渡ったころにはLiDAR取得のデータ量も増えて外界の認識精度も向上し、しっかりとしたユースケースを持ったアプリも生まれているのでキャズムをしっかり越えられる。

そんな算段している気がしてならない。


Googleは「AIを軸にしたAR体験」でリードしている

対してGoogleはARに対してどのような動きをしているかというと、「AIを軸にしたAR」に競争優位性を持とうとしていることが最大の特徴だと思う。

プライバシーを重んじるAppleに対して、Googleは最近国から直接お叱りを受けるレベルでユーザーデータを積極的にAIの学習に回してるので、AIの精度という意味ではかなり差が付いている。

実際、SiriとGoogle Assistantで知恵比べすると雲泥の差がある。

具体的にはAR時代の検索と、AR時代のインターフェイスの2つで、GoogleはAppleよりもかなり先行している。


1. AR時代の検索

AR時代には見ること=検索になる。
それを見越してGoogle Lensや画像認識ベースの検索機能など、Search as a Glance的な機能や体験を順次リリースしている。

2. AR時代のインターフェイス

AR時代の操作方法として、VUIと忖度インターフェイスが主軸になると思っている。

VUI、声のインターフェイスとして、Googleは去年のI/Oで「Hey Google」とわざわざ言わなくても自然な会話でスマホを操作できるようにアップデートしたり、2017のGoogle I/Oで披露してたAIとバレずに美容院を予約しきるデモなど、VUI・音声エージェント周りは積極的に投資している。


もう一つの忖度インターフェイスとは、AR時代の最適な操作は、マシン側が勝手にユーザーのコンテキストからやりたいこと・見たい情報を"察して"イイ感じに操作や情報提示をしてくれるインターフェイスを指す自分の造語だ。

Gmailの途中までテキスト入力すると文章を勝手に完成させてくれる文字入力予測や(英語のみ)、Androidのアプリランチャーで次にどのアプリを開くかの予想精度が2018年のI/O時点で60%精度出せていることを考えると、Googleにとってはこの忖度インターフェスも近い将来実現できそうだなと感じている。

おわり。

AIやXRなどの先端テック、プロダクト戦略などについてのトレンド解説や考察をTwitterで日々発信しています。 👉 https://twitter.com/kajikent