ロジスティック回帰#
モデル#
目的変数
である。
両辺の指数をとると
となる。
導出
両辺を
この
と呼ばれる、
導出
TODO
$
誤差関数#
ロジスティック回帰は、統計学的な言い方だと最尤推定法でパラメータを推定する。
機械学習的な言い方をすると交差エントロピー誤差を最小化するようにパラメータを推定する。
ベルヌーイ分布#
ロジスティック回帰は
この確率質量関数は一括で書くと
と書くことができる。
尤度関数#
尤度関数
である(独立に得られたサンプルを仮定するので単純な積が同時確率を意味する)。
そのため、ベルヌーイ分布の尤度関数は
となる。
ロジスティック回帰で使う場合、
交差エントロピー誤差#
尤度関数の対数を取って符号を負に反転させたものを交差エントロピー誤差(cross entropy loss)という。log lossやlogistic lossとも呼ばれる
勾配#
交差エントロピーの勾配は
導出
総和を取るまえの1レコード単位のものを使う。
より、
(参考)使った微分
にする場合#
上記の例では
で表されるとする。
と書くことができる。
尤度は
負の対数尤度は
と書くことができる。機械学習の分野だとこちらの表現のほうが目にするかも。
線形分離可能性#
機械学習として(目的変数の予測が目的)のロジスティック回帰では、線形分離可能な問題であることが嬉しい
統計学としては最尤推定量が存在しない(解が一意に定まらない)という扱いになる様子