見出し画像

Apple Watchをジェスチャーだけで操作? GAFAMのアクセシビリティへの取り組み――Dr. 心拍の「デジタルヘルスUPDATE」(28)

m3.comで掲載された執筆記事を公開します。医師の方は下記URLからお読みください。
Apple Watchをジェスチャーだけで操作? GAFAMのアクセシビリティへの取り組み――Dr. 呼坂の「デジタルヘルスUPDATE」(28) | m3.com AI Lab

呼吸器診療が専門の総合病院で勤務しつつ、ヘルスケアビジネスにも取り組むDr.心拍氏を中心とするチームが、日々のデジタルヘルスニュースを解説します。

今回は、GAFAMが開発する新しいアプリについてご紹介します。Googleは2021年11月、音声障害者のコミュニケーションを支援する新アプリを発表しました[1]。このアプリは書き起こし機能やリピート機能を搭載しています。

音声障害者が「筆談」や「会話」できるアプリ

Googleは、音声障害者のコミュニケーション支援を目的とした新しいツールを発表し、障害者分野での活動を続けています。「Project Relate」と名付けられたこのアプリは、テキストと合成音声アシスタントを使って、より簡単にコミュニケーションをとれるように設計されています。

ユーザーはこの技術を利用して、自分が話した内容をリアルタイムでテキストに書き起こしたり、テキストに変換し、それを相手に伝えたり、見せたりすることができます。リピート機能も搭載しているため、アプリに向かって話すと、合成音声がその発言を繰り返します。このツールは、ユーザーが所有する「Google Home」と接続することができ、電気を消すなどの特定の行為をデバイスに行わせることもできます。

もともとは2019年の「Project Euphonia」という取り組みが始まりで、標準的な発声を行えない人や、障害を持つ人の発話を理解する音声認識を開発しようとする試みとして始動しています。筋萎縮性側索硬化症(ALS)などの変性疾患によって生じる運動障害を持つ人の話し声は、単純に既存の自然言語処理システムでは理解されないという課題があります[2]。

研究チームはこうコメントします。「ASR(自動音声認識)システムはほとんどの場合、『典型的な』音声を使ってトレーニングされています。そのため、発話障害や強いアクセントを持っていたりする少数派のグループは、ASRの利便性を受けることができません。現在のASRモデルは、ALSが原因で中程度の発話障害を持つ話者に対して高い単語エラー率(WER:Word Error Rates)を示し、実質上ASR技術の利用が不可能になっています」。

Googleは現在、オーストラリア、カナダ、ニュージーランド、米国のユーザーを対象に、アプリのテストとフィードバックを募集しています。

Google AIのプロダクトマネージャーであるJulie Cattiau氏はこの技術を紹介するブログの中で、「Project Relateは、Googleのスピーチチームとリサーチチームの両方による長年の研究の成果であり、私たちの研究活動の参加者が記録した100万以上のスピーチサンプルによって実現しました」と述べています。

米国国立聴覚障害研究所(National Institute on Deafness and Other Communication Disorders)によると、米国では約750万人が発声に困難を抱えていると言われています。同研究所によると、音声障害の最も一般的な原因は、声帯や喉頭の筋肉が不随意に痙攣することで起こる「痙攣性発声障害」です[3]。この痙攣性発声障害の原因はいまだ不明ですが、喉頭を標的とする局所性ジストニアが本態であるとする見解が多いとされています[4]。

Googleは、この痙攣性発声障害だけでなく、脳卒中やALS、脳性麻痺、外傷性脳損傷などで発声に影響がある人がより簡単にコミュニケーションできる方法としてこの「Project Relate」アプリの利用を推奨しています。

GoogleやAppleが取り組むアクセシビリティの向上

Googleがアクセシビリティ分野に進出したのは今回が初めてではありません。Googleは2021年9月、Androidの新機能「カメラスイッチ」を発表しました。これは、言語や運動機能に障害のある方が、自分で選んだ顔のジェスチャーや目の動きでスマートフォンを操作できるようにするものです[5]。この機能を利用することで、たとえば介護者に、自身の感情をより細やかに伝えたりすることが可能になります。

Appleもアクセシビリティの向上を目指しています。2021年の初めには、運動機能や視覚、聴覚、認知機能に障害のある方のための新機能を多数発表しました。たとえば、Apple Watchの機能の一つである「AssistiveTouch」はジャイロスコープ、加速度センサー、光学式心拍センサーを利用し、微妙な筋肉の動き、たとえば、人差し指と親指を接触させたり、手を軽く握ったりといった動きをピンポイントで検出することで、画面に触れることなくApple Watchをジェスチャーで操作できるのです[6]。

さて、今回はGoogleやAppleが開発するアクセシビリティ向上の取り組みについてご紹介しました。身近な方が発声障害を患い、コミュニケーションが制限されてしまうことがあるかもしれません。そんな時にこのようなアプリを使うことで少しでも正しくコミュニケーションができ、日常を過ごしやすくなってもらえると医師としても嬉しいですね。

【参考】
[1]A communication tool for people with speech impairments
[2]GoogleがProject Euphoniaの包括的な音声認識を支えるAIの詳細を発表
[3]Statistics on Voice, Speech, and Language
[4]SD_20180105.pdf
[5]グーグルが顔のジェスチャーを利用したショートカットやスイッチでアシスティブ技術を強化
[6]Apple Watch で AssistiveTouch を使う - Apple サポート (日本)

【著者プロフィール】
Dr.心拍 解析・文 (Twitter: @dr_shinpaku)
https://twitter.com/dr_shinpaku
呼吸器内科の勤務医として喘息やCOPD、肺がんから感染症まで地域の基幹病院で幅広く診療している。最近は、医師の働き方改革という名ばかりの施策に不安を抱え、多様化する医師のキャリア形成に関する発信と活動を行っている。また、運営側として関わる一般社団法人 正しい知識を広める会 (tadashiiiryou.or.jp)の医師200名と連携しながら、臨床現場の知見や課題感を生かしてヘルスケアビジネスに取り組んでいる。
各種医療メディアで本業知見を生かした企画立案および連載記事の執筆を行うだけでなく、医療アプリ監修やAI画像診断アドバイザーも行う。また、ヘルステック関連スタートアップ企業に対する事業提案などのコンサル業務を複数行い、事業を一緒に考えて歩むことを活動目的としている。

この記事が気に入ったらサポートをしてみませんか?