見出し画像

Google Pixel Budsが抱える非着用者UXの問題

今週、Googleが様々な新製品をアナウンスした。Google Assistantの入ったスピーカーGoogle Home Maxとそのお供デバイスHome Mini。Chrome OS搭載のラップトップ/タブレットハイブリッド端末Pixelbook。Google謹製のスマートフォンPixel 2とPixel 2 XL。Always-onでAI搭載、ベストショットを自動で撮ってくれるGoogle Clip。そしてGoogle版のAirPodsであるGoogle Pixel Buds

Pixel BudsはAirPodsと同じくBluetoothヘッドセットで、Android端末と連携してGoogle Assistantを呼び出したりできる。ただ、アナウンスイベントで歓声が上がったのはGoogle Assistantを呼び出すデモではなく、Pixel 2と連携して行われる「リアルタイム翻訳」のデモだった。デモの様子の動画がYoutubeに上がっていた。1:00あたりからが実際のデモだ。

Pixel Budsを着けたスウェーデン語話者の女性と、何も着けていない英語話者の男性。Pixel Budsを着けた側がスウェーデン語で話しかけると、彼女のPixel 2のスピーカーから自動翻訳された英語が流れる。それを聞いた相手の英語話者の男性は、Pixel 2に英語で話しかける。するとPixel Budsを着けたスウェーデン語話者には、英語から自動翻訳されたスウェーデン語が聞こえてくる。というのがデモの内容だ。もちろん自動翻訳部分は、AIによる高精度なGoogle Translateが担当する。

デモでは「自然な異言語感コミュニケーションを促進する」という形でこのリアルタイム翻訳機能が宣伝され、見てのとおり大いに盛況だったようだ。日本語を含む40ヵ国語をサポートするということで、日本でも歓迎されているように見える。

問題は「目に見える通訳的存在の有無」にある

一見夢の翻訳マシンにすら思えるPixel Budsの何が問題なのか。それを明らかにするために、人間の通訳がいる場合を例として考えてみよう。

スウェーデン語を話すSさんと英語を話すEさんの間に、その両言語を話す通訳のIさんがいる。当然、S⇄Iの会話はスウェーデン語で行われ、E⇄Iは英語で行われ、Iさんを挟んで対称な関係でSさんとEさんの会話は進む。SさんもEさんも「あれ、なんか間違って捉えられてる気がする」と思えば、通訳であるIさんにそれを伝え、訂正することが可能だ。SさんとEさんの間にはスウェーデン語レイヤーと英語レイヤーという2つのレイヤーがあるが、それぞれのレイヤーにおいて会話に対称性があるために、SさんとEさんの対称性も保たれている。

通訳のIさんが、最近ではGoogle Translateアプリに取って代わられているかもしれない。実際、AIを使ったGoogle Translateの翻訳精度は凄まじい。しかし、会話の対称性という意味においては人間の通訳と変わらない。二人の間にアプリを起動したスマホを置いて、互い違いに認識言語を入れ替えながら、(もしくは2つのスマホでアプリを起動し言語を振り分けることで)、それぞれ自分の発話が認識され、翻訳され、機械音声によって発話され、相手に届く様子を逐一確かめながら相手とコミュニケーションをとることができる。

Pixel Budsの場合はこうだ。Pixel Budsを着けたスウェーデン語話者のSさんと、着けていない英語話者のEさんとの間には、今度もスマホ(Pixel 2)がある。そしてSさんには今度も、自分の発話が認識され、翻訳され、機械音声によって発話され、相手に届く様子がわかる。デモで示されたとおりだ。しかし、Eさんにとってはどうだろう?

デモでは、Pixel Buds着用者にだけ聞こえるはずの英語→スウェーデン語の翻訳結果が会場に流れている。だから英語話者の男性も、会場のオーディエンスも、彼の言葉がどのようにどんなタイミングでスウェーデン語に翻訳されているのかがわかる。しかし、実際に使うとそうはいかない。Pixel Budsから流れるスウェーデン語はSさんにしか聞こえないし、Eさんの英語音声を認識した画面を表示しているであろうPixel 2はSさんの手の中にある。Eさんにとって、つまりPixel Budsを着用していない側にとって、自分の発話は認識されているかどうかすらわからないのだ。「SさんがPexel Budsを着用しているのは見えるが、リアルタイム翻訳機能が起動していて、自分の発話をキャプチャしているのかはわからない」と感じるかもしれない。この非着用者UXに大きな問題がある。

通訳を通しての会話や、間に置かれたアプリを介しての会話など、対称性の保たれている状況では、こうした問題は起こらない。お互いが対等な関係で「通訳的存在」に干渉できることが暗黙のうちに了解されているからである。Pixel Buds非着用者は、この「通訳的存在」にアクセスすることはおろか、その存在を確認することすらできないのである。

非着用者User Experience

経験則ではあるが、英語が母国語でない同士でとるコミュニケーションにおいてもっとも「コミュニケーションが捗る」のは、相手が自分の言っていることを理解していないということがわかったときである。この瞬間には、自分と相手の英語への理解度、会話への集中力、互いに払う敬意など、様々な情報がより鮮明に浮かび上がる。

Pixel Buds非着用者にとって、こうした発見へのチャンスはもとから存在しない。発話から理解へと至るプロセスの大部分を占める「通訳的存在」へのアクセスが認められていないからだ。そしてこの非対称性は、一方的にPixel Buds着用者から非着用者へと押し付けられる。非着用者は、相手や相手の話す言語、そしてその背景にある文化を理解するチャンスを奪われた会話を強制されるのである(ついでに、音声認識フレンドリーなハキハキした発音で喋ることも要請されるかもしれない)。一方的な会話は、非着用者にとっては、壁に向かって話しているように感じられるかもしれない。これでは非着用者への配慮があまりにもなさすぎる。

もちろん、発話された言葉の意味を正しく交換するだけであれば、Pixel Budsで事足りるかもしれない。しかしそんな機会が、つまり意味を交換するだけで相手のことを配慮しなくてもよい機会が、Pixel Budsが前提とする異言語間Face-to-faceなコミュニケーションにおいてあるだろうか?友人を作りたい時ではもちろんないし、仕事の同僚や海外クライアントも難しいだろう。あるとすれば、旅行先でのレストランの注文やタクシードライバーとの会話、日本語を話せない外国人観光客に突然道を聞かれた時、くらいだろうか。個人的にはそうした会話からこそ相手の文化が垣間見えると思うのだが、それを煩わしく思い、リアルタイム翻訳で用事を済まそうというニーズは確かにあるかもしれない。

Pixel Budsは、そうした特定の機会には便利かもしれないが、「自然な異言語間コミュニケーションを促進するもの」とまでは言えないのではなかろうか?ましてや「コレがあれば英語を勉強しなくてよくなるもの」という、自動翻訳機の登場を夢見る発言にしばしば見られるようなものには到底ならないだろう。それを肯定することは、「コレがあれば英語を、コミュニケーションを、そして相手のことを理解しなくてよくなる」と言っていることと同義だ。

似たような議論は、奇しくも、もう一つのGoogleプロダクトにも当てはまる。Google Glassだ。Google Glassも、美観やプライバシーなど、Face-to-faceで起こるインタラクションが非常に重要なプロダクトでありながら、非着用者のUXが全く考えられていなかった。「あの人がGlassを着けてるのは見えるが、それが自分を撮っているのかどうかはわからない。だから気持ち悪い」といった具合だ。そのためにGlass着用者は「Glasshole:メガネをかけたクソったれ」と呼ばれることとなり、今ではコンシューマ向けのGlassプロジェクトはお蔵入りとなってしまっている。

もちろん音声と画像ではプライバシーの程度や得られる情報に差はあるが、非着用者UXという観点において通じるところは大いにある。むしろ、Pixel Budsのリアルタイム翻訳機能がコミュニケーションを促進するためのものだとしたら、非着用者はその中で大きなウェイトを占めるプレイヤーであるはずだ。ぜひ非着用者からみたコミュニケーションも考慮に入れながらUXをデザインしてほしい。

この記事が気に入ったらサポートをしてみませんか?