AIと説明責任
2021年2月26日日経新聞の記事を読んで思ったこと。
富士通がどのようにAIが出した結果に対するエビデンスを出すように
しているかは書かれていませんが、医療や金融などクリティカルに
なりがちな場面でAIを利用する場合には、それが「正解」かどうかを判断すためではなく、「安心」を得るためにもエビデンスは必要なことだと思えます。
私は、機械翻訳システムを開発する会社を経営しています。機械翻訳の世界も機械学習・深層学習による翻訳システムが主流となっているため、この「説明責任」ということには敏感にならざるえません。なぜその翻訳結果なのか?AI翻訳・AI通訳などいろいろなシーンで機械翻訳が利用されることが増えていくと思います。翻訳・通訳も「医療」「金融」といったシーンで利用されるものです。
作り手としては、翻訳精度を高めていくためにも出た翻訳結果に対するエビデンスがわかるような取り組みは考えていくべきものなのかもしれません。
この記事が気に入ったらサポートをしてみませんか?