見出し画像

Bach, S., Binder, A., Montavon, G., Klauschen, F., Müller, K-R. and Samek, W. : On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation

PLoS ONE 10 (7)

峰松 翼(九州大学)

※本記事のPDFは情報処理学会電子図書館に掲載されており、情報処理学会会員は無料で閲覧できます。(http://id.nii.ac.jp/1001/00206070/

機械学習の解釈性

 医療や教育分野など情報系分野以外のさまざまな分野で,機械学習が利活用されている.近年ではGraphics Processing Unit(GPU)など計算資源の発展や大量のデータを収集・利用できるようになってきたことを背景に一部の画像認識タスクにおいて,人間の識別率を上回るDeep Neural Network(DNN)が報告されている.画像認識のような複雑なタスクは,入力信号→出力信号の非線形変換を学習することで実現される.たとえば,自動的に鶏を認識させるためには,「鶏が写っている画像」→「ニワトリという記号」に変換するルールが必要となる.このような非線形変換は,学習データと適用する機械学習手法に基づいて計算される.

 上記のような非線形変換を用いることで,高い識別性能を達成できるが,一方で,求められた非線形変換は容易に人間が解釈できるものではなく,機械学習による結果の判断根拠を解釈しにくい.単にブラックボックスとして機械学習を用いるだけでは,学習後の性能評価実験でよい成績を残したとしても,その評価実験では,たまたま,うまくいっただけなのかの判断がつきにくく,少し学習データと異なるデータを正しく識別できないことさえあり得る.信用ならない手法のままでは,機械学習の現場への適用や学習結果を参考にした人間による意思決定にも影響がでてくるだろう.機械学習の判断根拠を人間が理解しやすい形で提示することで,機械学習の結果への信頼性の向上や機械学習手法の改良の一助にもなると考えられ,機械学習手法の解釈性を高める研究が注目されている.

判断根拠の可視化

 機械学習手法の解釈性を高める研究には,学習後の非線形変換のパラメータを地道に解析する方法や,非線形変換をより簡単なモデルで表現・学習しなおす方法などさまざまある.今回,紹介する論文では,画像認識タスクにおいて,入力画像のどこの画素が出力結果に貢献したのかを可視化する手法Layer-Wise Relevance Propagation(LRP)を提案している.

ここから先は

1,897字 / 2画像
この記事のみ ¥ 100

この記事が気に入ったらサポートをしてみませんか?