NOTEARS#
NOTEARS(Zheng et al., 2018) は、因果探索を“勾配最適化”として解くことに成功した画期的な手法であり、伝統的な PC(制約ベース)や GES(スコアベース)とは異なる第3のアプローチとして注目されている。
従来の因果探索は
PC:条件付き独立性検定
GES:BIC などのスコアによる組合せ探索
のように 離散最適化 をベースにして因果探索を行う。
NOTEARS はこれを捨て、
“DAG である”という制約そのものを連続最適化できるようにした。
モデル:線形 SEM#
NOTEARS は、次の線形構造方程式モデル(SEM)を仮定する
\(W\) の非ゼロ要素 \(W_{ij}\) がエッジ \(j \rightarrow i\) の因果効果を表す
\(W\) を推定することが、因果グラフを推定することに相当する
DAGを連続最適化問題へ転換#
DAG とはサイクルのない有向グラフであるが、サイクル存在の有無は離散的であり、最適化には扱いにくい。
NOTEARS はこれを 微分可能な制約として次のように表す。
\(e^{A}\) は行列指数
\(W\circ W\) は アダマール積(要素ごとの積)
\(h(W)=0\) が W が DAG を表すための必要十分条件となる
この \(h(W)\) は滑らかであり、微分可能であるため、通常の連続最適化(L-BFGS, Adam 等)で扱える。
最適化#
最適化するパラメータは \(W\) であり、目的関数は次のように与えられる。
最初の項は 再構成誤差(平方誤差)
\(\lambda \|W\|_1\) は スパース化のための L1 正則化
\(h(W)=0\) が DAG 制約
したがって NOTEARS は
「誤差を最小化しつつ DAG を保つ \(W\)」
を連続最適化の枠組みで求める手法である。