はじめに 機械学習モデルを解釈する際には「特徴量重要度」がキーワードになってきます。「特徴量重要度」には様々な指標があり、目的が違います。 ①feature importance、②permutation importance、③SHAP の3つについて説明していきます。 結論から言うと 3つの特徴量重要度を調べて、個人的に感じた結論を以下に書きます。 ①feature importance:予測モデルを組む際に 「モデル」が重要視する因子が分かる 。例えば決定木を考えた際にどの因子がノードの分割に寄与するのかを評価するイメージ。 ②permutation importance:各特徴量が予測にどう寄与するかが分かる。モデルの「予測精度」に影響する因子が分かる。 ③SHAP: 「予測結果」に対する各特徴量の寄与が分かる 。それぞれのデータの予測にインパクトを与える因子が分かる。 ①feat