NOTEARS#

NOTEARS(Zheng et al., 2018) は、因果探索を“勾配最適化”として解くことに成功した画期的な手法であり、伝統的な PC(制約ベース)や GES(スコアベース)とは異なる第3のアプローチとして注目されている。

従来の因果探索は

  • PC:条件付き独立性検定

  • GES:BIC などのスコアによる組合せ探索

のように 離散最適化 をベースにして因果探索を行う。

NOTEARS はこれを捨て、

“DAG である”という制約そのものを連続最適化できるようにした。

モデル:線形 SEM#

NOTEARS は、次の線形構造方程式モデル(SEM)を仮定する

\[ X = WX + Z,\quad Z\sim \mathcal{N}(0, \sigma^2 I) \]
  • \(W\) の非ゼロ要素 \(W_{ij}\) がエッジ \(j \rightarrow i\) の因果効果を表す

  • \(W\) を推定することが、因果グラフを推定することに相当する

DAGを連続最適化問題へ転換#

DAG とはサイクルのない有向グラフであるが、サイクル存在の有無は離散的であり、最適化には扱いにくい。

NOTEARS はこれを 微分可能な制約として次のように表す。

\[ h(W) = \mathrm{tr}(e^{W \circ W}) - d = 0 \]
  • \(e^{A}\) は行列指数

  • \(W\circ W\) は アダマール積(要素ごとの積)

  • \(h(W)=0\)W が DAG を表すための必要十分条件となる

この \(h(W)\) は滑らかであり、微分可能であるため、通常の連続最適化(L-BFGS, Adam 等)で扱える

最適化#

最適化するパラメータは \(W\) であり、目的関数は次のように与えられる。

\[ \min_{W} \frac{1}{2n}\|X - WX\|_F^2 + \lambda \|W\|_1 \quad\text{s.t. } h(W)=0 \]
  • 最初の項は 再構成誤差(平方誤差)

  • \(\lambda \|W\|_1\)スパース化のための L1 正則化

  • \(h(W)=0\)DAG 制約

したがって NOTEARS は

「誤差を最小化しつつ DAG を保つ \(W\)

を連続最適化の枠組みで求める手法である。

参考#