汎化誤差#

様々な誤差の指標#

汎化誤差#

訓練データT={(xi,yi)}i=1nの下で、新しいデータ点(X0,Y0)でのモデルf^の誤差の期待値をとったもの

GE=EX0,Y0[L(Y0,f^(X0))|T]

は**真の誤差(true error)あるいは汎化誤差(generatization error)**あるいはextra-sample errorと呼ばれる

期待誤差#

訓練セットで汎化誤差の期待値をとった

EE=ETEX0,Y0[L(Y0,f^(X0))|T]

を**期待誤差(expected error)**という。

期待誤差のほうが統計的に扱いやすい

訓練誤差#

訓練データで誤差の平均値をとったもの

TE=1Ni=1NL(yi,f^(xi))

を**訓練誤差(training error)あるいは再代入誤り率(resubstitution error)**という。

訓練誤差は汎化誤差以下になることが知られている

はじパタによれば、再代入誤り率TEHoldOutErrorと真の誤差GEの間には

EDL[TE]GEEDT[HoldOutError]

の関係性があるとされる(ここでEDL[]は多数の訓練データで計算して期待値をとったもの、EDT[]は訓練データは1つで多数のテストデータで期待値を摂ったもの)

Conditional Error

汎化誤差の推定#

Hold out

Cross Validation

汎化誤差上界#

Chernoff bound#

PAC-Bayesian bound#

Catoni bound

[2110.11216] User-friendly introduction to PAC-Bayes bounds

訓練誤差ベース#

訓練誤差ベースの汎化誤差上界は実験してみると100%近くの意味のない値になることも多い[2012.04115] Generalization bounds for deep learning

テスト誤差ベース#

テスト用データを使って汎化誤差上界を計算したもの

ノイズ付加#

ノイズ耐性と汎化性能は相関する

そこでノイズ付加汎化誤差上界を計算するアプローチがある