スクリーンショット_2019-11-01_午前2

音声AIアシスタント x XR と AppleのARグラス関連情報まとめ

Volumetric Video/ホログラム専門家小池です。

9月から始まったテックジャイアントによる新製品発表ラッシュも落ち着き、2019年もいよいよ残り約2ヶ月となりました。

例年通り新型スマホ発表も行われましたが、機能面での劇的な進化なく、むしろ"ポストスマホ"時代の幕開け象徴する発表が多くあった印象です。

①9月26日 AmazonAlexa搭載のEcho Budsを発表

②10月3日 MicrosoftSurface Earbudsを発表(※Cortona以外にも全対応)

③10月15日 GooglePixel Buds2を発表(引き続きGoogleアシスタント対応)

④10月29日 AppleAirPods Proを発表(もちろんSiri対応)

いわゆる"AI"を開発している大手がこぞって完全ワイヤレスイヤホン発表したのです。

偶然とは思えないこのトレンドXR起業家視点で書いていこうと思います。

※例の如く、個人的な考えを分かりやすさ重視で書いているので、あしからず。※※XRとは、VR/AR/MRの事だと思って下さい。

音声AIアシスタント使えますか?

今、実際に音声AIアシスタントを使っている人は、どれだけいるのでしょうか?

音声AIアシスタント説明する際によく引用されるバズった動画が2つあります。

イタリアおばあちゃん(85才) & GoogleHomeの場合

おばあちゃんは、孫にプレゼントされたGoogleHome初めて使った時、"明日の天気は何?"と聞き、実際にスピーカーが返答すると、ビックリして、"What is this thing? =これは一体なに?"”I'm scared =怖いんだけど”"It's a mystery = ミステリーだよ。"と、未知の機械ビビっています(笑)そして、孫から使い方を教えてもらうも、最後まで使い方を覚えられず、"Do it= やってよ!!"って言って終わります。

アメリカ女の子(2才) & Alexaの場合

Baby Shark(世界中の子供に大人気の曲)を聞きたい女の子が、Alexaに"Play Baby Shark =曲をかけて!!"と話しかけます。が、まだ言葉を完璧に喋れないので、Alexaはトンチンカン返答繰り返します。最終的お母さんがAlexaに話しかけ、Baby Sharkが流れると女の子はノリノリで踊り出します(^^)

2つとも超〜可愛くて笑っちゃいます(笑)

でもですね、そう笑ってもいられないんですよね(^^;

アメリカンジョークっぽく言うと"You are next=次は君だよ"です。

ちょうど去年の今頃シリコンバレーのイベントで、某VCの方が"スマートスピーカー(音声AIアシスタント)を買え、使え!!"って熱弁していたのを思い出します。

音声AIアシスタント使いこなせないと、数年後君は仕事がなくなる。パソコンで、タイピングやショートカットキーを使えないと効率的に仕事が出来ないのと同じで、効率的に音声AIアシスタントを使えないと、君は確実に落ちぶれる

ポジショントーク満載でしたが、一理あるな〜とも。

よく、最近の新人パソコン使えない/ググれないとか、上司スマホ使えないって話を聞きます。

今度は僕が、音声AIアシスタント使えない人って言われる可能性もあるんだろ〜なと(笑)

なぜ"音声"なのか?

正直、音声AIアシスタント精度はまだまだ低く機能・音声入力を含め、(特に日本語の場合は)まだまだ実用的とは言い難いです。VUI(Voice User Interface =音声ユーザーインターフェイス)なんて全く洗礼されていません

そもそもなぜ、"AI"を開発するテックジャイアントはこぞって"音声"に力をいれるのでしょうか?

人類対話通じ合い言葉/会話は人類にとって最も進化したツール/手段だからです。現在は、コマンドタイピングを通してコンピュータ/インターネット利用しています。が、そこをより人類にとってより自然な形で実現しよう。という流れなのかなと。

書くより喋る読むより聞く方が簡単です(笑)

例えば、中国語タイピングよりも音声入力の方が速いそうで、中国での普及率は他国よりも高めだそうです。(※日本語漢字/平仮名/片仮名入力する必要があるので、明らかに音声の方が速いはずなんです。複雑言語ゆえに、課題も多いかと思いますが・・・)

なぜ"AI"なのか?

2016年4月28日、Googleがオフィシャルブログで創業者の手紙を投稿し、

We will move from mobile first to an AI first world. 
モバイルファーストからAIファーストへ!!

宣言しました!!

世界中にスマホを普及さ、いつでも・どこでも・でもインターネット(情報)にアクセス出来る環境を整えたは、AI普及させる!!そうです。

AIには学習(データ解析)と推論(判断)の2つプロセスが存在します。

5G、クラウドコンピュータィングエッジコンピューティングの時代が来る!と聞いた事がある人も多いと思います。

クラウドサーバーエッジ端末(クライアント)です。

大雑把に言うと、写真をたくさん集めてAIに"猫とは?"を学習させるのがクラウド、学習済みデータを使ってカメラ"猫"判断するのがエッジ。なイメージです。

よく聞く"AI搭載"とは、推論用(判断する)のAIチップ/プログラム入っている事を言っていて、そのAIが世界中の電子機器に搭載され始めています(=IoT化)。これがエッジコンピューティング=端末(クライアント)で判断可能になった世界です。

世界中のAI"開発"スタートアップ半分以上が"AIを使っていない"と言われる所以は、この出来上がったデータ活用しているだけで、自分たちでは何も新しく生み出していないからです(笑)

ちなみに、ディープラーニング(深層学習)はデータ解析の手法であって、AI(人工知能=人類と同等の知能を持ったもの)では無いです(笑)


話を戻します(^^;

Google検索エンジンの会社です。

"SEO対策=検索エンジン最適化"という言葉を聞いた事もあるとおもいます。検索(ググった)した時に、恐らくこのウェブページがあたなの求めている"情報"を含んでいますよ!っていう表示される、あれです。

このアルゴリズム(最適なページを上位に表示する)が圧倒的に優秀だったので、世界中の人々はインターネットで検索する時にGoogleを使ったのです。

でも、そもそも論でいくと、実際にユーザーが一番知りたいのは、その"順"でも"ウェブページ"でもなく、その"答え"(情報)ですよね?

答えに辿り着きやすい → AIが答える!

これが、AIファーストへ!なんだと思っています。(違ったらスミマセン。笑)

質問(検索)して、最適解を即答する!!

これこそが、Google目指す世界であり、ユーザーが一番求めているツール=音声AIアシスタントになるのかなと。

なぜAIアシスタント=XRなのか?

はい、ここからが本番です(笑)

僕が日本でVR事業部を立ち上げていた2015-2016年VR元年と言われましたが、当時からXR業界ではARの方が重要(市場がデカい)と言われていました。

gumiの国光さん曰く、世間はVR/ARと言うが、

FBマークザッカーバーグは必ずAR/VRと言う。彼(FB)の本命AR!!

だそうです(笑)

そしてARは、スマホ(モバイルAR)→イヤホン(音声AR)→グラス型の順に普及するとも長年言われてきました。

個人的には、AIアシスタントも、スマホ(文字)→イヤホン(音声)→グラス(映像)の順に普及すると思っています。

これは、

新聞(文字)→ラジオ(音声)→テレビ(映像)のメディア進化

ポケベル(文字)→携帯電話(音声)→スマホ(映像)のモバイル通信進化

とも、似ているのかな〜とも。(※個人の見解です)

XRの本質はデジタル(情報)のインプットだと思っていて、
XRの真の価値はデジタルストレスなく扱える"操作性"にあると思っています。AIアシスタントは、XRに必要不可欠なピースだと捉えています。

スマホでのARの事例等は↓のブログで確認してみて下さい↓

なぜ"グラス"なのか?

現在、世界中でARグラス開発に取り組んでいる企業が多数存在します。

なぜ、技術的課題が山積みで、解決策となる技術が揃っていないのにも関わらず、ハードウェア開発競争が起こっているのでしょうか?

興味深いのは、2019年10月現在、家電量販店等で市販されている消費者向けARグラスゼロです。それなのに、なぜこんなにもARグラスの登場が待ち望まれているのでしょうか?

理由は、

人類は"視覚動物"だからです。

人は外部からの情報の9割を視覚に依存していると言われています。

デジタルインプットするのに一番適した方法視覚的表示する事なのです。

グラスでは、音声とプラスしてハンドジェスチャーによって、より直感的デジタルを扱う事が可能になります!!

画像1

(※LeapMotionのNorth Starのデモです)

個人的には、XRは、音声ジャスチャーに加えて、ペン型コントローラーで操作するんだろうな〜と思っています。

画像2

人はペンを直感的に扱えますし、XRの時代でもテーブルで作業する事は多いはずで、軽くて小さいし、電池持ち良いし、何より細かい作業にはペンが向いているのかな〜なんて(^^;

これだけPC/スマホ普及してもペン需要多いですしね!!笑 

アップルのARグラス関連情報まとめ

アップルはARグラスを開発しています。

現時点で3つのプロトタイプが存在するようです。

コードネーム(視野角)
Franc:61°(47° x 40°)
Luck:58° (46°x34°)
Garta:68° (49°x47°)

↓アップルが買収/出資したXR関連技術開発企業の一例です↓

2019年9月 精密ガラス製造メーカーCoringに出資 (全世代のiPhoneにガラスを提供していて、最近AR向けガラス製造開始しました)

2018年8月 ホログラフィー技術のAkonia Holographicsを買収

高解像度広視野角実現する特許を申請したようです。

(人の目レベルの高解像度を実現したVarjoXR-1AR版で、ホログラフィックプロジェクターハイブリッド①視野角の広く低解像度のプロジェクター ②視野角が狭く高解像度のプロジャクターを搭載するようです。)

2017年12月 iPhoneで顔認証に利用されるTruedepthの部品:VCSEL(垂直共振器面発光レーザー)のサプライヤーFinisarに出資

→その後、同じアップルのサプライヤーII-VIに買収されます

※アップルにVCSEL(垂直共振器面発光レーザー)を提供しているAMSは、OSRAMを買収しようとしています。(あのBain Capitalと引き続き争っているようです。)

2017年11月 ビデオシースルー型のARヘッドセットを開発するVrvanaを買収。

2017年7月 アイトラッキングのSMIを買収

3D画像技術関連でイスラエルの複眼カメラ技術のLinxと3DカメラのPrimeSenseも買収しています。

2017年ごろから、アップルARグラス2020年と言われています。2020年まであと2ヶ月!!待ち遠しいですね〜!!

P.S

最後の方、疲れて雑になってますね(^^; 笑

必要な事は各記事に乗っているので、是非そちらでご確認下さい〜(^^)/

2019.11.1 Hiroki Koike