「失った自分の声を蘇らせることもできるーー「合成音声技術」の最前線とは」

放送の様子はこちら(下記サイトでは音声配信も行っています)。
「失った自分の声を蘇らせることもできる〜『合成音声技術』最前線」(Screenless Media Lab.ウィークリー・リポート)
2019.5/31 TBSラジオ『Session-22』OA

 Screenless Media Labは、音声をコミュニケーションメディアとして捉え直すことを目的としています。今回は音と声に関わる最新技術について紹介したいと思います。

◾合成音声技術の発展

 昨今の技術の中でも、合成音声技術の発展は注目すべきものがあります。最近は「AIアナウンサー」など、人工知能を用いることで、限りなく人の発音と遜色ないレベルで発音できるシステムが開発されています。アマゾンが提供するクラウドサービス「Amazon Web Services(AWS)」の中には、格安の料金でテキストをAIが音読するサービスがあります。

こうした合成音声は、災害発生時など、24時間体制でコンピュータが災害情報をアナウンスするサービスとして用いられることもあります。

 従来、合成音声技術の作成には多くの時間と費用がかかっていましたが、昨今の人工知能はそのスピードを大幅に短縮させています。IT企業は各社、合成音声技術の開発を進めていますが、中でも人の声のサンプルを読み込ませることで、その人の声を模倣した合成音声の作成が可能になっています。

 例えば中国の検索エンジン大手の「バイドゥ」は、5秒未満のサンプル音声を10個分析させるだけで、元の声に似た合成音声を生成することができます。もちろん、サンプル数が増えれば増えるほど、合成音声はより自然なものになります。

(バイドゥが公開している実際の合成音声は、以下のサイトで試聴できます)

 他にも「コエステーション」というスマホ向けアプリは、指定された文章を読むことで自分の声を合成音声化し、テキスト情報を、合成した「自分の声」で読み上げることができます。その声は音を高くしたり、逆に低く変化させたり、怒りや悲しみといった感情を与えることもできます。こうした機能の利用方法としては、自分の合成音声を利用して、子供に絵本の読み聞かせなどが考えられます。他にもエンターテインメントをはじめとして、様々な領域で利用が期待されています。

◾失った自分の声を蘇らせる

 合成音声技術は他にも、怪我や事故などによって声を発することが困難になった人々を支援する目的でも開発が進んでいます。

 例えば、アメリカのあるジャーナリストはラジオ局で6つの番組制作に関わっており、番組でニュース解説などを行っていましたが、ある時中枢神経の疾患によって、声が出せなくなってしまいました。そこで、スコットランドの会社が彼の声を人工知能に分析させることで、合成音声を作成。自分が書いた原稿を、自分の声に限りなく近い声で発音させることで、仕事を継続することが可能になりました。

 障害者支援としての合成音声技術は、他にも多く進められています。カリフォルニア大学サンフランシスコ校(UCSF)の研究チームは、脳の電気信号を読み取ることで、発音される言葉を予測し、合成音声で発音する研究に取り組んでいます。これは唇やあご、舌といった音の発生に関わる部位を制御する言語中枢の活動を計測し、発せられる言葉を読み取って人工音声が音に出す、という仕組みです。研究にあたっては、脳に電極を埋め込んでいる被験者から、発音と脳の動きを記録しています。

(日本語の記事は以下)

 この技術によって、将来的には脳卒中やパーキンソン病、ALS(筋萎縮性側索硬化症)等の病気で声を発することが困難になった人たちをサポートすることができるようになると考えられます。このように合成音声技術は、様々な分野に向けたサービスが期待されている分野なのです。

この記事が気に入ったらサポートをしてみませんか?