OLS推定量の性質#

重回帰モデル#

\(N\)個のサンプルがあり、\(i\)番目のサンプルについての回帰式を次のように表記する

\[ Y_i = X_i^T \beta + u_i, \hspace{1em} i=1,\dots, N \]

ここで\(X_i \in \mathbb{R}^D\)は説明変数の行列\(X\in \mathbb{R}^{N\times D}\)を1行取り出したもので、\(Y_i, u_i \in \mathbb{R}\)も1つのサンプルの被説明変数と誤差項である。

行列表記にすると

\[ Y = X \beta + u \]

と表すことができる。

OLS推定量#

目的関数は残差の二乗和であるため、

\[\begin{split} \begin{align} L(\beta) &= u^T u\\ &= (Y - X \beta)^T (Y - X \beta)\\ &= Y^T Y - Y^T X \beta - (X\beta)^T Y + (X \beta)^T X \beta\\ &= Y^T Y - 2 \beta^T X^T Y + \beta^T X^T X \beta\\ \end{align} \end{split}\]

である。これを微分してゼロとおくと

\[ \frac{\partial L(\beta)} {\partial \beta} = - 2 X^T Y + 2 X^T X \beta = 0 \]

となり、\(\beta\)について解くと

\[ \beta = (X^T X)^{-1} X^T Y \]
import numpy as np

x0 = np.array([1, 1, 1])
x1 = np.array([1, 2, 3])
x2 = np.array([2, 8, 9])
X = np.array([x0, x1, x2]).T
beta = np.array([3, 5, 7]) # 真のbeta
y = X @ beta

# OLS推定量
beta_hat = np.linalg.inv(X.T @ X) @ (X.T @ y)
beta_hat.round(1)
array([3., 5., 7.])

OLS推定量の別表記#

一致性や不偏性の議論のための準備として、OLS推定量を変形する。

重回帰モデル\(Y = X\beta + u\)をOLS推定量\(\hat{\beta} = (X^T X)^{-1} X^T Y\)に代入して変形すると

\[\begin{split} \begin{align} \hat{\beta} &= (X^T X)^{-1} X^T Y\\ &= (X^T X)^{-1} X^T (X\beta + u)\\ &= (X^T X)^{-1} X^T X\beta + (X^T X)^{-1} X^T u\\ &= \beta + (X^T X)^{-1} X^T u\\ &= \beta + \left(\frac{1}{N} X^T X\right)^{-1} \frac{1}{N} X^T u \end{align} \end{split}\]

となる。

単回帰でいうと

\[ \hat{\beta} = \beta + \frac{Cov(X, u)}{Var(X)} \]

である。\(X\)に内生性がある、すなわち\(Cov(X, u) \neq 0\)であると\(\hat{\beta} \neq \beta\)となる

OLSの仮定

  1. i.i.d.:\((Y, X)\)は独立同一分布に従う

  2. 外生性:\(E[u|X] = 0\)

  3. 異常値がない:\(X, u\)は4次までのモーメントを持つ

  4. 多重共線性がない:任意の\(\sum_{j=0}^k a_j^2 = 1\)となる\(a_0,\dots,a_k\)について\(E[(a_0 + a_1 X_1 + \cdots + a_k X_k)^2]>0\)が成り立つ

不偏性#

外生性#

単回帰モデル\(Y = \alpha + \beta X + u\)を例にとる。

外生性

説明変数\(X\)と誤差項\(u\)

\[ E(u | X) = 0 \]

を満たすとき、\(X\)は外生変数であるという。

また、外生性の条件は別の表現もできる

\(X\)\(u\)の直交

説明変数\(X\)が外生変数ならば、

\[ E(u) = 0, E(X, u) = 0 \]
証明
\[\begin{split} E(X u) = E_{X}[ E(X u | X) ] = E_{X}[ X \underbrace{ E(u|X) }_{ =0 } ] = E_{X}(X\cdot 0) = 0 \\ E(u) = E_{X}[ \underbrace{ E(u|X) }_{ =0 } ] = 0 \end{split}\]

さらに、共分散との関係も導出できる

\(X\)\(u\)の無相関

説明変数\(X\)が外生変数ならば、

\[ Cov(X, u) = 0 \]
証明
\[ Cov(X, u) = \underbrace{ E(X u) }_{ =0 } - E(X) \underbrace{ E(u) }_{ =0 } = 0 \]

OLS推定量の不偏性#

単回帰モデル\(Y = \alpha + \beta X + u\)のOLS推定量\(\beta\)の確率極限は

\[ \DeclareMathOperator{\cov}{\text{Cov}} \DeclareMathOperator{\var}{\text{Var}} \DeclareMathOperator{\plim}{\text{plim}} \plim \beta = \beta + \frac{\cov(X, u)}{\var(X)} \]

となる。外生性が満たされるとき\(\cov(X, u) = 0\)であるため、\(\plim \beta = \beta\)となり、OLS推定量は母回帰係数の不偏推定量となる。

証明
\[\begin{split} \DeclareMathOperator{\cov}{\text{Cov}} \DeclareMathOperator{\var}{\text{Var}} \DeclareMathOperator{\plim}{\text{plim}} \begin{align} \plim \beta &= \frac{\cov(X, Y)}{\var(X)}\\ &= \frac{\cov(X, \alpha + \beta X + u)}{\var(X)}\\ &= \frac{\cov(X, \alpha) + \cov(X, \beta X) + \cov(X, u) }{\var(X)}\\ &= \frac{\beta \var(X) + \cov(X, u) }{\var(X)}\\ &= \beta + \frac{\cov(X, u)}{\var(X)} \end{align} \end{split}\]

標本値、確率変数の和は、加える前の個々の共分散の和になる。すなわち、共分散においては分配法則が成り立つ。

\[ \cov(X + Z, Y) = \cov(X, Y) + \cov(Z, Y) \]

参考:確率統計 – 分散と共分散 – TauStation

(参考)共分散と定数

\(\alpha, \beta\)は定数と考えると、

\[\begin{split} \cov(X, \alpha) = E(X \alpha) - E(X) E(\alpha)\\ = \alpha E(X) - \alpha E(X)\\ = 0 \end{split}\]

であり

\[\begin{split} \cov(X, \beta X) = E(X \beta X) - E(X) E(\beta X)\\ = \beta E(X^2) - \beta E(X)^2\\ = \beta \var(X) \end{split}\]

一致性#

異常値がない(\(X, u\)は4次までのモーメントを持つ)という仮定と大数の法則により以下が成立する

\[\begin{split} \begin{align} \frac{1}{N} X^T X &= \frac{1}{N} \sum^N_{i=1} X_i X_i^T \overset{p}{\longrightarrow} E(X_i X_i^T) \\ \frac{1}{N} X^T u &= \frac{1}{N} \sum^N_{i=1} X_i u_i \overset{p}{\longrightarrow} E(X_i u_i) = 0 \end{align} \end{split}\]

多重共線性がないという仮定により\((E(X_i X_i^T))^{-1}\)が存在する

\[ \left( \frac{1}{N} X^T X \right)^{-1} \frac{1}{N} X^T u \overset{p}{\longrightarrow} 0 \]

よって

\[ \hat{\beta} \overset{p}{\longrightarrow} \beta \]

漸近正規性#

OLS推定量

\[ \hat{\beta} = \beta + \left(\frac{1}{N} X^T X\right)^{-1} \frac{1}{N} X^T u \]

を整理して以下の形にする

\[ \sqrt{N} (\hat{\beta} - \beta) = \left( \frac{1}{N} X^T X \right)^{-1} \frac{1}{\sqrt{N}} X^T u \]

\(\frac{1}{\sqrt{N}} X^T u\)\(\frac{1}{\sqrt{N}} \sum^N_{i=1} X_i u_i\)と書くことができる。OLSの仮定より

\[\begin{split} \begin{align} E(X_i u_i) &= 0\\ Var(X_i u_i) &= E(u^2 X_i X^T_i) \end{align} \end{split}\]

なので、中心極限定理により

\[ \frac{1}{\sqrt{N}} X^T u = \frac{1}{\sqrt{N}} \sum^N_{i=1} X_i u_i \overset{d}{\longrightarrow} N\left( 0, E(u_i^2 X_i X_i^{\prime}) \right) \]

となる。

一致性のときに導出した

\[ \frac{1}{N} X^T X \overset{p}{\longrightarrow} E(X_i X_i^T) \]

を使うと、スルツキーの定理を用いて

\[\begin{split} \begin{align} \sqrt{N} (\hat{\beta} - \beta) = \left( \frac{1}{N} X^T X \right)^{-1} \frac{1}{\sqrt{N}} X^T u &\overset{d}{\longrightarrow} \left( E(X_i X_i^T) \right)^{-1} \times N\left( 0, E(u_i^2 X_i X_i^{\prime}) \right)\\ &= N\left( 0, \left( E(X_i X_i^T) \right)^{-1} E(u_i^2 X_i X_i^{\prime}) \left( E(X_i X_i^T) \right)^{-1} \right)\\ &= N(0, V)\\ \end{align} \end{split}\]

となる。

スルツキーの定理

確率変数の行列\(Y_N, Y, X_N, X \in \mathbb{R}^{N\times N}\)、正則行列\(C \in \mathbb{R}^{N\times N}\)があるとする。

\(N\to \infty\)のとき

\[\begin{split} X_N \xrightarrow{d} X\\ Y_N \xrightarrow{d} C\\ \end{split}\]

とする。

このとき、以下の結果が成り立ち、これを スルツキーの定理 という

  1. \(X_N + Y_N \xrightarrow{d} X + C\)

  2. \(Y_N X_N \xrightarrow{d} C X\)

  3. \(Y_N^{-1}X_N \xrightarrow{d} C^{-1} X\)

\(V\)は以下のように一致推定できる

\[\begin{split} \begin{aligned} \hat{V} & =\left[\frac{1}{N} \sum_{i=1}^N X_i X_i^{\prime}\right]^{-1} \frac{1}{N} \sum_{i=1}^N \hat{u}_i^2 X_i X_i^{\prime}\left[\frac{1}{N} \sum_{i=1}^N X_i X_i^{\prime}\right]^{-1} \\ & =\left(\frac{1}{N} X^T X\right)^{-1} \frac{1}{N} X^T \hat{U} X\left(\frac{1}{N} X^T X\right)^{-1} \end{aligned} \end{split}\]

ただし、\(\hat{U}\)は対角要素に\(\hat{u}_1^2, \dots, \hat{u}_N^2\)を並べた対角行列である。

バイアスとバリアンス#

最小二乗推定量はすべての線形不偏推定量の中で最もバリアンスが小さい(最良である)ことを示すガウス・マルコフの定理というものがある。

Note

ガウス・マルコフの定理 各\(i\)について、

  • \(E[\varepsilon_i] = 0\)

  • \(V[\varepsilon_i]=\sigma^2 < \infty\) が共通

  • \(i \neq j\)のとき\(E[\varepsilon_i \varepsilon_j] = 0\)

を満たすとき、最小二乗推定量\(\hat{\beta}_{OLS}\)はBLUEになる

不偏性#

任意のパラメータの線形結合\(\theta=\boldsymbol{\alpha}^\top {\boldsymbol{\beta}}\)を考える。例えば\(f(x_0)=x_0^\top \beta\)がこの形である。

この最小二乗推定値は

\[ \hat{\theta} = \boldsymbol{\alpha}^\top \hat{\boldsymbol{\beta}} = \boldsymbol{\alpha}^\top (\boldsymbol{X}^\top \boldsymbol{X})^{-1} \boldsymbol{X}^\top \boldsymbol{y} \]

で、期待値をとると

\[\begin{split} \begin{align} E[\hat{\theta}] &= E[\boldsymbol{\alpha}^\top \hat{\boldsymbol{\beta}}]\\ &= E[\boldsymbol{\alpha}^\top (\boldsymbol{X}^\top \boldsymbol{X})^{-1} \boldsymbol{X}^\top \boldsymbol{y}]\\ % &= \boldsymbol{\alpha}^\top (\boldsymbol{X}^\top \boldsymbol{X})^{-1} \boldsymbol{X}^\top E[\boldsymbol{y}]\\ &= E[\boldsymbol{\alpha^\top (X^\top X)^{-1} X^\top (X\beta + \varepsilon) }] \\ &= \boldsymbol{\alpha^\top (X^\top X)^{-1} X^\top X \beta + \alpha^\top (X^\top X)^{-1} X^\top} E[ \varepsilon ] \\ &= \boldsymbol{\alpha^\top (X^\top X)^{-1} X^\top X \beta}\\ &= \boldsymbol{\alpha}^\top \boldsymbol{\beta} \end{align} \end{split}\]

となり(※)、\(\hat{\theta}\)が不偏推定量である(\(E[\hat{\theta}] = \theta\))ことがわかる。

バリアンス#

\(\boldsymbol{\alpha}^\top \boldsymbol{\beta}\)に対して不偏のまた別の線形推定量\(\boldsymbol{c}^\top \boldsymbol{y}\)があるとする。

両者の差を

\[\begin{split} \begin{align} \boldsymbol{\alpha}^\top \boldsymbol{\hat{\beta}} - \boldsymbol{c}^\top \boldsymbol{y} &= [ \boldsymbol{\alpha}^\top (\boldsymbol{X}^\top \boldsymbol{X})^{-1} \boldsymbol{X} - \boldsymbol{c}^\top ] \boldsymbol{y}\\ &=: \boldsymbol{d}^\top \boldsymbol{y} \end{align} \end{split}\]

とおく。このとき、不偏性\(E[\boldsymbol{c}^\top \boldsymbol{y}] = \boldsymbol{\alpha}^\top \boldsymbol{\beta}\)から両者の差の期待値はゼロになるべきであり、

\[ E[\boldsymbol{d}^\top \boldsymbol{y}] = \boldsymbol{d}^\top \boldsymbol{X} \boldsymbol{\beta} = 0 \]

が任意の\(\boldsymbol{\beta}\)について成り立たなければならないため、

\[ \boldsymbol{d}^\top \boldsymbol{X} = \boldsymbol{0} \]

が成り立つ。

次に、2つの確率変数\(X, Y\)に対し

\[ V[X+Y] = V[X] + 2 \text{Cov}[X, Y] + V[Y] \]

が成り立つから、\(\boldsymbol{c}^\top \boldsymbol{y}\)の分散は

\[\begin{split} \begin{align} V[\boldsymbol{c^\top y}] &= V[\boldsymbol{ \alpha^\top \hat{\beta} - d^\top y }]\\ &= V[\boldsymbol{ \alpha^\top \hat{\beta} }] - 2 \text{Cov} [\boldsymbol{ \alpha^\top (X^\top X)^{-1} X^\top y }, \boldsymbol{ d^\top y} ] + V[\boldsymbol{ d^\top y}] \end{align} \end{split}\]

と表すことができる。

\[ \text{Cov}(A, B) = E[(A - E[A])(B - E[B])^\top] \]
\[ \text{Cov}(a^\top y, b^\top y) = E[(a^\top y - E[a^\top y])(b^\top y - E[b^\top y])^\top] \]
\[\begin{split} \text{Cov}(a^\top y, b^\top y) = E[(a^\top y - E[a^\top y])(b^\top y - E[b^\top y])^\top]\\ = E[(a^\top y - \alpha^\top \beta)(b^\top y - E[b^\top y])^\top] \end{split}\]

次に、2つの確率変数

\[ \boldsymbol{a^\top y} = \sum a_i y_i, \hspace{2em} \boldsymbol{b^\top y} = \sum b_i y_i \]

の共分散は、誤差項\(\boldsymbol{\varepsilon}\)が無相関・等分散の仮定\(V[\boldsymbol{\varepsilon}] = \sigma^2 \boldsymbol{I}\)を満たすとき、

\[ \text{Cov}[\boldsymbol{a^\top y, b^\top y}] = \text{Cov}[\boldsymbol{a^\top \varepsilon, b^\top \varepsilon}] = \sum a_i b_i \sigma^2 = (\boldsymbol{a^\top b}) \sigma^2 \]

となることから

\[ \text{Cov}[\boldsymbol{ \alpha^\top (X^\top X)^{-1} X^\top y, d^\top y }] = \boldsymbol{\alpha^\top (X^\top X)^{-1} X^\top d } \cdot \sigma^2 \]

となり、\(\boldsymbol{d}^\top \boldsymbol{X} = \boldsymbol{0}\)よりこれは0となる。

よって

\[ V[\boldsymbol{ c^\top y }] = V[\boldsymbol{ \alpha^\top \hat{\beta} }] + V[\boldsymbol{ d^\top y }] \]

が成り立ち、分散は非負なので

\[ V[\boldsymbol{ c^\top y }] \geq V[\boldsymbol{ \alpha^\top \hat{\beta} }] \]

を意味する。

よって\(\boldsymbol{ \alpha^\top \hat{\beta} }\)は最良線形不偏推定量BLUEである。

OLS推定の幾何学的意味#

OLS推定量

\[ \hat{\boldsymbol{\beta}} = (X^\top X)^{-1} X^\top \boldsymbol{y} \]

\(\hat{\boldsymbol{y}} = X \hat{\boldsymbol{\beta}}\)に代入すると

\[ \hat{\boldsymbol{y}} = \underbrace{ X (X^\top X)^{-1} X^\top }_{P} \boldsymbol{y} = P \boldsymbol{y} \]

つまり、ベクトル\(\boldsymbol{y}\)を行列\(P = X (X^\top X)^{-1} X^\top\)で射影したものとみなすことができる。

この行列\(P\)は対称行列で、\(P^2=P\)となる。この2つの性質を満たす行列を射影行列という。

\[\begin{split} \begin{aligned} P^2 & = PP \\ & =(X(X^{\top} X)^{-1} X^{\top})(X(X^{\top} X)^{-1} X^{\top}) \\ & =X(X^{\top} X)^{-1}(X^{\top} X)(X^{\top} X)^{-1} X^{\top} \\ & =X(X^{\top} X)^{-1} X^{\top} =P \end{aligned} \end{split}\]

射影行列は、\(X\)の列空間\(\Im X\)にベクトルを正射影するという性質がある。\(\boldsymbol{y}\)\(\Im X\)への射影が\(\hat{\boldsymbol{y}}\)で、垂線の足が誤差\(\boldsymbol{u}\)となる。

よって、最小二乗法は\(\boldsymbol{y}\)から\(\Im X\)への射影を求める操作であると捉えることができる。

参考文献#