ダイバージェンス#

エントロピー#

エントロピー#

H(p)=p(x)logp(x)dx

交差エントロピー#

H(p,q)=p(x)logq(x)dx

Kullback-Leibler Divergance#

離散の場合

DKL(P||Q)=iP(i)logP(i)Q(i)

連続の場合

DKL(P||Q)=p(x)logp(x)q(x)dx

交差エントロピーとの関係#

logMN=logMlogNより、

H(p,q)=H(p)+DKL(p||q)=p(x)logp(x)dx+p(x)logp(x)q(x)dx=p(x)logp(x)dx+p(x){logp(x)logq(x)}dx=p(x)logp(x)dxH(p)+p(x)logp(x)dxH(p)p(x)logq(x)dxH(p,q)
DKL(p||q)=H(p,q)H(p)=p(x)logq(x)dxp(x)logp(x)dx

Density Power Divergence#

β-divergenceとも

KLダイバージェンスの拡張で、外れ値に頑健

Basu et al. (1998). Robust and efficient estimation by minimising a density power divergence. Biometrika, 85(3), 549-559.

Dβ(Q,P)=dβ(Q,P)dβ(Q,Q)dβ(Q,P)=1βp(x)βdQ(x)+r

積分を回避する案#