SHAP#
概要#
「この予測値はどういう特徴量が影響してこうなったのか」という局所的説明(local explanation)を行う手法
特徴量の貢献度の推定量としてゲーム理論のShapley valuesの概念を使用することで望ましい性質を持つ推定量を開発
計算量が多いShapley valuesを重み付き最小二乗法で線形近似することで実用的な計算量にした
additive feature attribution methods#
この分野の先行研究として、LIMEやDeepLIFTのような既存の説明手法が存在する。これらは数学的には似ていて
のような線形のモデルで表現する形をとる共通点がある。
ここで\(\phi\)は特徴量の貢献度(attribution)で、\(z'\)は特徴量の有無を示す二値変数(\(z' \in \{0,1\}^M\))であり、Mは特徴量の数で、iは列のインデックス。
本論文ではこうした手法を総称してadditive feature attribution methodsとよぶ。
先行研究たちの構造(線形、というモデルの構造)は一緒で、\(\phi\)の推定量が異なるような状況。
推定量の性質#
このφの求め方は色々あるが、以下に述べる3つの性質を持つような解はひとつしか存在せず、その解はShapley valueである。
Local accuracy: 説明モデル\(g(x')\)と元の予測モデル\(f(x)\)の出力値が一致する
Missingness: ある特徴量が欠損しているとき、その特徴量は予測に貢献しない
Consistency: 予測モデル\(f(x)\)の出力値を増加あるいは維持する(下げない)特徴量があるとき、その特徴量の貢献度も下がらない
性質1(Local accuracy)
説明モデル\(g(x')\)と元の予測モデル\(f(x)\)の出力値が一致する
性質2(Missingness)
ある特徴量が欠損しているとき、その特徴量は予測に貢献しない
性質3 (Consistency)
予測モデル\(f(x)\)の出力値を増加あるいは維持する(下げない)特徴量があるとき、その特徴量の貢献度も下がらない
\(f_x\left(z^{\prime}\right)=f\left(h_x\left(z^{\prime}\right)\right)\)とおき、\(z_i^{\prime}=0\)を\(z^{\prime} \backslash i\)とおく。
もしすべての入力 \(z^{\prime} \in\{0,1\}^M\) について
のとき、 \(\phi_i\left(f^{\prime}, x\right) \geq \phi_i(f, x)\)
(Missingnessはadditive feature attribution methodsであれば満たされる。Local accuracyとConsistencyはShapley valueに関する研究で性質が明らかになっている)
Shapley values#
以下の式がShapley valuesとして知られるもので、これは特徴量を追加したときの予測値の変化を、特徴量の有無のすべての組み合わせにわたって加重平均したものである。
Shapley values
SHAP values#
Shapley valuesを条件付き期待値で表現したもの。
Kernel SHAP#
先行研究にはLIMEという局所線形近似によって説明モデルを作る手法がある。LIME推定量がShapley valueになるかどうかは損失関数L、重みカーネルπ、正則化項Ωに依存する。
以下のΩ, π, Lを使えば推定量がShapley valueになる。
Theorem 2 (Shapley kernel)
のもとで、LIMEの推定量
は性質1~3を満たす。ここで\(|z'|\)は\(z'\)の非ゼロ要素の数。
誤差関数は重みつきの二乗誤差 → 重み付き最小二乗法で推定できる。