G検定 XAI #2

株式会社リュディアです。前回に続き XAI のまとめを行っていきます。前回の記事は以下のものです。

今回は XAI を実現するための説明戦略についてです。科学技術振興機構のページにある資料を参考にしました。

XAI が説明をどのように行うか、つまり説明戦略により 3 つのアプローチに分類しています。文献により分類方法もいろいろありますが、今回は上記文献に従い 3 つに分類します。

Deep Explanation
Interpretable Models
Model Induction

以下、各内容について簡単に説明していきます。

Deep Explanation

ディープラーニング、ディープニューラルネットワーク用の説明戦略です。簡単に書くとどの特徴量どれだけ効いたかを説明する、というものです。視覚的に説明するためにアテンションヒートマップというグラフを作成する方法があります。もちろんこのグラフは複雑なものとなります。

Interpretable Models

決定木やランダムフォレストなど、どのように結論が出されたかわかりやすいもの、つまりホワイトボックス型の説明戦略です。BATreesdefragTrees が有名です。

Model Induction

説明モデルを使って説明する方法です。説明モデルとしては Additive Feature Attribution Methods を使うことが多いです。これは正直なところよくわかりませんでした。

今回は簡単にですが、XAI の説明戦略を 3 種に分類する例を示しました。

では、ごきげんよう。


この記事が気に入ったらサポートをしてみませんか?