G検定 XAI #3

株式会社リュディアです。前回に続き XAI のまとめを行っていきます。今回は具体的な方法論についてまとめてみます。過去2回の記事も先に目を通してから先に進んでください。

まず学習モデルの予測結果の根拠となった特徴量を説明するアプローチをとるグループです。LIMESHAPAnchor が有名です。LIME, SHAP は予測にあたりどの特徴量がどのように効いたかを人間がわかるように説明する方法をとっています。人間がわかるように説明することを可読表現といいます。Anchor特徴量がどの範囲にあれば予測に十分かを提示することで可読表現としています。

次に予測の根拠となった訓練データを示すことで説明する方法をとるグループです。influence が有名です。

次はブラックボックスを他の可読性の高いモデルで表現することで説明する方法をとるグループです。Born Again Trees (BA Trees)と defragTrees が有名です。BA Trees複雑なモデルを決定木で近似します。defragTrees決定木のアンサンブルを複数のルールで近似します。

最後に勾配ベースのハイライト法についてです。DNN による画像認識モデルを考えたときに画像のどの部分が予測に重要であったかを色で表現します。saliencydeepexplain が有名です。

今回は XAI の具体的な方法論について簡単にまとめてみました。詳細な内容までは理解できていないので名称の紹介のみとなります。

ちなみに XAI については否定的な意見も多いようです。以下の日経 xTech の記事が読み物レベルでうまくまとまっていると思います。

では、ごきげんよう。


この記事が気に入ったらサポートをしてみませんか?