見出し画像

訛ってる「ヘイ!アレクサ」を大量に食わせる話。AI For Everyone:第2週「機械学習プロジェクトのワークフロー」

スタンフォード大学の先生の講義を字幕付きで聞けるAI For Everyoneも、いよいよ2週目突入です。
ここからは機械学習がどのように構築されているかの核心に迫っていきます。

最初のステップはデータを収集すること。
講義では「ヘイ! アレクサ」を音声認識させる場合の例が取り上げられていました。

まずは、いろんな土地、世代の人のアレクサの発音を収集しまくります。
発音サイトで聞き比べてみると、発音は人によってさまざま。
カタカナと同じように母音をつけて、平板に「アレクサ」と言っている人もいれば、レにアクセントを置いた「アレークサ」の人、アを強調した「アーレクサ」、語尾を巻き舌にする「アレクサぁ」、クをはっきり言わない「アレッサ」派の人もいました。

次は、モデルの訓練です。オーディオクリップを再生し、それがアレクサかそうでないかという結果を出力するマッピングを繰り返し行います。Alex(アレックス)さんやAlexei(アレクセイ)さんを間違えて判定しないようにするには相当の反復が必要そう。

十分に学習を終えたAIはスマートスピーカーに搭載され、実際のユーザーによるテストが始まります。
アメリカで開発したスマートスピーカーをイギリスに持っていくと、British accentにはうまく反応せず、maintain and update(メンテナンスと更新)が必要になることも、よくあるそうです。

うちはGoogleスマートスピーカーなので、ためしにいろんな発音で話しかけてみました。gargle(うがい)には反応しないけれど、goggles(ゴーグル)には反応してしまいましたーー。

ちなみにAlexaもGoogleも、ユーザーの声は一度サーバーに送られるので、AIは絶えず学習を続けているそう。
うちのGoogleスピーカーも、だんだん賢くなっていくでしょうか。


この記事が気に入ったらサポートをしてみませんか?