木下昇平

データサイエンティスト。自分用のアウトプットとして気が向いた時に記事を書いています。 …

木下昇平

データサイエンティスト。自分用のアウトプットとして気が向いた時に記事を書いています。 分析コンペ(特にKaggle)が好きです

記事一覧

機械学習を解釈する#02 PD

前回(1年以上前…)は機械学習を解釈する手法の1つであるParmutation Feature Importance(PFI)について説明しました。 今回は、特徴量と予測値の関係を知る手法であるPartia…

木下昇平
1年前
7

機械学習を解釈する#01 PFI

 近年機械学習の研究と開発が進み、機械学習をはじめたばかりの方でも簡単に精度の高い予測モデルを構築できるようになりました。具体的にはニューラルネットワーク、勾配…

木下昇平
2年前
8
機械学習を解釈する#02 PD

機械学習を解釈する#02 PD

前回(1年以上前…)は機械学習を解釈する手法の1つであるParmutation Feature Importance(PFI)について説明しました。
今回は、特徴量と予測値の関係を知る手法であるPartial Dependence(PD)について紹介します!

Permutation Feature Importance(PFI)の限界 Permutation Feature Importance

もっとみる
機械学習を解釈する#01 PFI

機械学習を解釈する#01 PFI

 近年機械学習の研究と開発が進み、機械学習をはじめたばかりの方でも簡単に精度の高い予測モデルを構築できるようになりました。具体的にはニューラルネットワーク、勾配ブースティング決定木、ランダムフォレストなどです。しかし、これらの手法は精度が高い一方で、線形回帰モデルなどの従来の統計モデルと比べて解釈性が低いという欠点を持っています。
 そこで、今回は上記のモデルでも適用できる【特徴量の重要度を知る技

もっとみる