削減不能な誤差の推定# バイアス‐バリアンス分解# 定理 目的変数Yが回帰関数f(X)と誤差εによって分解できる、すなわちY=f(X)+εであるとする。ここでE(ε)=0, Var(ε)=σε2である。 入力点X=x0における学習した回帰関数f^(X)の二乗誤差の期待値は、 削減不能な誤差 (irreducible error) 、 バイアス(Bias) の二乗、 バリアンス(Variance) に分解できる。 証明 Err(x0)=E[(Y−f^(x0))2∣X=x0]=σε2+[Ef^(x0)−f(x0)]2+E[f^(x0)−Ef^(x0)]2=σε2+Bias2(f^(x0))+Var(f^(x0))= Irreducible Error +Bias2+ Variance. もし、現状のデータとモデルではそれ以上誤差を削減させられないなら、モデルのフィッティングを頑張るよりも特徴量を増やす努力をしたほうがよいかもしれない。 削減不能な誤差の推定# 削減不能な誤差をどう推定するか? Liitiäinen, E., Corona, F., & Lendasse, A. (2008). On nonparametric residual variance estimation. Neural Processing Letters, 28, 155-167. Devroye, L., Györfi, L., Lugosi, G., & Walk, H. (2018). A nearest neighbor estimate of the residual variance. Electronic Journal of Statistics, 12, 1752-1778.