G検定 XAI #2
株式会社リュディアです。前回に続き XAI のまとめを行っていきます。前回の記事は以下のものです。
今回は XAI を実現するための説明戦略についてです。科学技術振興機構のページにある資料を参考にしました。
XAI が説明をどのように行うか、つまり説明戦略により 3 つのアプローチに分類しています。文献により分類方法もいろいろありますが、今回は上記文献に従い 3 つに分類します。
Deep Explanation
Interpretable Models
Model Induction
以下、各内容について簡単に説明していきます。
Deep Explanation
ディープラーニング、ディープニューラルネットワーク用の説明戦略です。簡単に書くとどの特徴量がどれだけ効いたかを説明する、というものです。視覚的に説明するためにアテンションヒートマップというグラフを作成する方法があります。もちろんこのグラフは複雑なものとなります。
Interpretable Models
決定木やランダムフォレストなど、どのように結論が出されたかわかりやすいもの、つまりホワイトボックス型の説明戦略です。BATrees や defragTrees が有名です。
Model Induction
説明モデルを使って説明する方法です。説明モデルとしては Additive Feature Attribution Methods を使うことが多いです。これは正直なところよくわかりませんでした。
今回は簡単にですが、XAI の説明戦略を 3 種に分類する例を示しました。
では、ごきげんよう。
この記事が気に入ったらサポートをしてみませんか?