RNN#
シンプルなRNN#
時点
特徴量だけでなく、1時点前の目的変数
最もシンプルなモデルは行列
と記述し、重みパラメータ
ディープラーニングとして扱う場合、活性化関数
ここで
である。
また
活性化関数にはシグモイド関数やReLU関数でもよいが、RNNの場合は双曲線正接(tanh)関数
を用いることが多い。tanhはシグモイド関数と形状が似ているが、値域が
定数項を書く場合#
中間層
出力層
行列じゃない表記にすると、
と思われる
実装(Keras)#
kerasだとSimpleRNNというクラスがあり、上記のようなRNNを呼び出すことができる