利用すべきでないAIの応用事例

今回は、少しAIの課題について書いてみようと思います。紹介するのは、利用すべきではない分野でのAI(認識技術)の応用事例です。当然問題が起きます。起こるべくして起こったと言えます。

記事はこちら。

<新型コロナ>「亡くなるべくして亡くなっている」 一家感染の50代夫婦、支援体制の不備や自宅療養の苦しさ激白
2021年8月29日 22時19分

注目はこの部分。

◆電話口の咳にAIが「聞き取れない」とだけ…
 (略)
 県がLINEと人工知能(AI)の電話で行っている療養者の症状確認も気になる点があった。妻はLINEで「息苦しい」と回答した日、電話がかかってきたが、息苦しさのためせき込みながら答えると「聞き取りできませんでした」とAI。その後も、人による確認の電話はなかった。

つまり音声自動認識に失敗した、人によるサポートがなかった、ということですね。

しかし自動認識技術がどのようなものなのかを知っていれば、この失敗は当然のことです。簡単に言うと、自動認識技術は沢山のデータを利用し、多くの場合に正しい答えが出るように(認識率が高くなるように)調整したプログラムです。この新聞記事の例は、通常の状態で使うべき技術を、通常でない場合に適用した(利用しようとした)と考えれば良いでしょう。学習データから見ると、新型コロナに感染してしまい、せき込んだ状態で発した言葉は、はずれ値です。もしもせき込んだ状態で発した言葉を学習するのであれば、相当数のデータを集めてチューニングを行う必要があります。しかし、利用できる分野も限られている上に、あまりにもバリエーションが大きいので、データ収集と評価にかかるコストが大きと考えられます。恐らく実現した人はまだいないでしょう。

オペレーションとしても問題です。音声認識は失敗することがあるのですが、その場合どのように対応するかが組み込まれていない可能性があります。

そして実は、AIを利用する時の責任の所在にも注目する必要があります。AIは決して万能ではありません。間違ったり、失敗した時の責任の所在が不明確です。「聞き取れませんでした」は少なくとも認識できなかったことがわかります。しかし音声認識で間違ってしまった場合は何がおきるでしょうか。起きてしまった問題の責任は誰が負うのでしょうか?


AIは万能ではない。便利な使い方もできるが、限界を知らないと大変なことになる。私が担当している講義では、どのようにしてAIが答えを出しているのか、データ依存性、限界などを学んでもらうようにしています。そして問題は誤認識、認識不能以外にも、いろいろあります。少しづつですが、そういった内容もアップしてみたいと思います。