見出し画像

【Google】会話をリアルタイムで翻訳して字幕表示するスマートグラス!

まずはこの動画を見てみてほしい…

母国語が異なる中国系アメリカ人の親子や英語圏で商売を営むスペイン人の男性が、メガネのようなデバイスを装着することで、言葉の壁を超えてコミュニケーションを交わすことができるようにならはったね!

Googleの最新技術・新製品・新サービスが発表されるデベロッパー向けイベント「Google I/O 2022」が2022年5月11日から12日の2日間にかけて開催された。この動画はそのイベントの中で発表されたもので、会話をリアルタイムで翻訳して字幕で表示するメガネ型デバイスの存在が明らかになった。

このメガネ型デバイスは、他社のスマートグラスと同様にフレーム部分にスピーカーがあって、その内蔵マイクで聞き取った言葉を逐一テキストに文字起こししてくれる。そして、必要があれば自動的に翻訳してくれるみたいやね。まじで魔法の道具やん!

このスマートグラスのリサーチパートナーには耳が不自由な人も参加してはった。これまで彼らは手話を使ってコミュニケーションをとることが多かったけど、手話を知っている者同士でないと会話が成立せず、多くの人と自由に会話することは難しかった。せやけど、このメガネがあれば、相手の話してる内容が字幕で表示されるから、相手に手話を強制する必要がなくなる。こりゃ聴覚障碍者とのコミュニケーション活発化に大きく貢献しそうやね。

Googleは2020年にスマートグラス開発企業のNorthを買収しはった。彼らはフレームからレンズに映像を投影する構造のスマートグラスを開発しており、今回の動画に登場したデバイスにはその技術が応用されてるかもしれん。さらに、つい最近Googleは小型・省電力のマイクロLEDを開発するRaxiumを買収すると発表しはった。このRaxiumのマイクロLEDもまたスマートグラス開発に役立てられるのではと期待されてる。今後もGoogleは積極的にスマートグラスの開発を行っていきそうやね~

ところで、検索機能が大幅にアップデートされてきてることもGoogle I/Oで明らかになった。まず「Google Multisearch」は写真とキーワードを一緒に検索できる機能らしい。例えば、「ちょっと近くで焼き飯食べたいなぁ~」ってときに、チャーハンの写真に「near me」ってキーワードを入力すると、近くのチャーハンが食べられるお店が表示されるみたいな機能なんやって!Gちなみに、Google Multisearchは先月にローンチされてて、現在アメリカでは利用可能らしい。

他にも、キーワードを入れると視界の中から自分の買いたいもんが分かるScene Exploration」っちゅう機能もある開発されたらしい。例えば、「dark」「nut-free」「higly-lated」というキーワードをつけて、スーパーの棚を撮影すると、キーワードに合った商品がハイライトされるんやって!

こうした新たな検索機能が活発に開発されてんのも、今後リリースしようとしてるスマートグラスに搭載するアプリケーションの布石なんかもしれんな…

この記事が気に入ったらサポートをしてみませんか?