G検定 XAI #1

株式会社リュディアです。今回は XAI についてまとめてみます。流行りのキーワードですね。

XAIとは説明可能なAIのことです。英語で「説明する」は Explain、「可能にする」を意味する able をつけて Explainable AI 略して XAIと呼びます。説明可能とは何のことを言ってるのでしょうか。

XAI という言葉は米国の国防高等研究計画局 DARPA の研究者が 2016年に以下の論文で使ったことにより広まったそうです。

G検定の対策をしている方ならわかると思いますので詳細は省きますが機械学習の学習モデルで何らかの予測が得られたときに、なぜその予測になったのか経緯、過程がわからない、いわゆるブラックボックスであるという問題は昔から言われています。日常的に AI 技術が適用されだした昨今、さらに応用分野を広げていく際に問題になってきています。決定木のように決定過程を確認可能なモデルもあります。しかしディープニューラルネットワークを適用した学習モデルでは確認不可能であるといってもよいでしょう。確認不可能な学習モデルで得た予測を元に何らかの処理をする場合、どのような問題が発生するでしょうか。具体例をまじえて考えてみます。

リコメンデーションシステムを持つ ECサイトを考えます。あなたにお勧め、と言われた商品が本当に私にとってベストのものなのか?スポンサー料の対価としてお勧めされているだけでは?悪意を持ったデータにシステムが乗っ取られた結果として勧められているのでは?つまりデータの公平性信頼性を欠くシステムと言えます。どのような理由でお勧めしてきたのか説明可能であるべきですよね。

次に自動車の自動運転中に事故が発生した場合を考えてみます。同様の事故が発生しないように開発者は分析が必要なのですがブラックボックス化されているため分析ができません。分析ができないので改善点を見つけることもできません。事故が発生したときに学習モデルがどのような判断をしたのか、なぜその判断に至ったのかという学習モデルの動きを説明可能であるべき、と考えます。

最後の例は医療分野で機械学習が用いられる場合を考えます。将来的に機械学習による結果に従い手術や処方が行われ問題が発生した際に誰がどのように責任を負うのでしょうか?医師が「機械に従った」と説明した場合に、説明になっているのでしょうか。つまりアカウンタビリティの問題が発生します。医師は学習モデルの結果を見て自分自身で判断する際に、学習モデルがなぜそのように判断したのか、という説明を求めるはずです。

AI の応用分野を広げるために、上記のような問題点を技術的な側面、法的な側面、倫理的な側面から解決しようというアプローチが XAI説明可能なAI と言えます。

では、ごきげんよう。


この記事が気に入ったらサポートをしてみませんか?