SHAP#

Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. Advances in neural information processing systems, 30.

概要#

  • 「この予測値はどういう特徴量が影響してこうなったのか」という局所的説明(local explanation)を行う手法

  • 特徴量の貢献度の推定量としてゲーム理論のShapley valuesの概念を使用することで望ましい性質を持つ推定量を開発

  • 計算量が多いShapley valuesを重み付き最小二乗法で線形近似することで実用的な計算量にした

additive feature attribution methods#

この分野の先行研究として、LIMEやDeepLIFTのような既存の説明手法が存在する。これらは数学的には似ていて

g(z)=ϕ0+i=1Mϕizi

のような線形のモデルで表現する形をとる共通点がある。

ここでϕは特徴量の貢献度(attribution)で、zは特徴量の有無を示す二値変数(z{0,1}M)であり、Mは特徴量の数で、iは列のインデックス。

本論文ではこうした手法を総称してadditive feature attribution methodsとよぶ。

先行研究たちの構造(線形、というモデルの構造)は一緒で、ϕの推定量が異なるような状況。

推定量の性質#

このφの求め方は色々あるが、以下に述べる3つの性質を持つような解はひとつしか存在せず、その解はShapley valueである。

  1. Local accuracy: 説明モデルg(x)と元の予測モデルf(x)の出力値が一致する

  2. Missingness: ある特徴量が欠損しているとき、その特徴量は予測に貢献しない

  3. Consistency: 予測モデルf(x)の出力値を増加あるいは維持する(下げない)特徴量があるとき、その特徴量の貢献度も下がらない

性質1(Local accuracy)

説明モデルg(x)と元の予測モデルf(x)の出力値が一致する

f(x)=g(x)=ϕ0+i=1Mϕixi

性質2(Missingness)

ある特徴量が欠損しているとき、その特徴量は予測に貢献しない

xi=0ϕi=0

性質3 (Consistency)

予測モデルf(x)の出力値を増加あるいは維持する(下げない)特徴量があるとき、その特徴量の貢献度も下がらない

fx(z)=f(hx(z))とおき、zi=0ziとおく。

もしすべての入力 z{0,1}M について

fx(z)fx(zi)fx(z)fx(zi)

のとき、 ϕi(f,x)ϕi(f,x)

(Missingnessはadditive feature attribution methodsであれば満たされる。Local accuracyとConsistencyはShapley valueに関する研究で性質が明らかになっている)

Shapley values#

以下の式がShapley valuesとして知られるもので、これは特徴量を追加したときの予測値の変化を、特徴量の有無のすべての組み合わせにわたって加重平均したものである。

Shapley values

ϕi=SF{i}|S|!(|F||S|1)!|F|![fS{i}(xS{i})fS(xS)]

SHAP values#

Shapley valuesを条件付き期待値で表現したもの。

Kernel SHAP#

先行研究にはLIMEという局所線形近似によって説明モデルを作る手法がある。LIME推定量がShapley valueになるかどうかは損失関数L、重みカーネルπ、正則化項Ωに依存する。

以下のΩ, π, Lを使えば推定量がShapley valueになる

Theorem 2 (Shapley kernel)

Ω(g)=0πx(z)=(M1)(M choose |z|)|z|(M|z|),L(f,g,πx)=zZ[f(hx(z))g(z)]2πx(z),

のもとで、LIMEの推定量

ξ=argmingGL(f,g,πx)+Ω(g)

は性質1~3を満たす。ここで|z|zの非ゼロ要素の数。

誤差関数は重みつきの二乗誤差 → 重み付き最小二乗法で推定できる。

参考#