OLS推定量の性質#
重回帰モデル#
ここで
行列表記にすると
と表すことができる。
OLS推定量#
目的関数は残差の二乗和であるため、
である。これを微分してゼロとおくと
となり、
import numpy as np
x0 = np.array([1, 1, 1])
x1 = np.array([1, 2, 3])
x2 = np.array([2, 8, 9])
X = np.array([x0, x1, x2]).T
beta = np.array([3, 5, 7]) # 真のbeta
y = X @ beta
# OLS推定量
beta_hat = np.linalg.inv(X.T @ X) @ (X.T @ y)
beta_hat.round(1)
array([3., 5., 7.])
OLS推定量の別表記#
一致性や不偏性の議論のための準備として、OLS推定量を変形する。
重回帰モデル
となる。
単回帰でいうと
である。
OLS推定量のバリアンス#
よって
証明
以下の定理を使う
であるため、
OLSの仮定
i.i.d.:
は独立同一分布に従う外生性:
異常値がない:
は4次までのモーメントを持つ多重共線性がない:任意の
となる について が成り立つ
不偏性#
外生性#
単回帰モデル
外生性
説明変数
を満たすとき、
また、外生性の条件は別の表現もできる
説明変数
証明
さらに、共分散との関係も導出できる
説明変数
証明
OLS推定量の不偏性#
単回帰モデル
となる。外生性が満たされるとき
証明
(参考)共分散と定数
であり
一致性#
異常値がない(
多重共線性がないという仮定により
よって
漸近正規性#
OLS推定量
を整理して以下の形にする
なので、中心極限定理により
となる。
一致性のときに導出した
を使うと、スルツキーの定理を用いて
となる。
スルツキーの定理
確率変数の行列
とする。
このとき、以下の結果が成り立ち、これを スルツキーの定理 という
ただし、
バイアスとバリアンス#
最小二乗推定量はすべての線形不偏推定量の中で最もバリアンスが小さい(最良である)ことを示すガウス・マルコフの定理というものがある。
Note
ガウス・マルコフの定理
各
が共通 のとき
を満たすとき、最小二乗推定量
不偏性#
任意のパラメータの線形結合
この最小二乗推定値は
で、期待値をとると
となり(※)、
バリアンス#
両者の差を
とおく。このとき、不偏性
が任意の
が成り立つ。
次に、2つの確率変数
が成り立つから、
と表すことができる。
次に、2つの確率変数
の共分散は、誤差項
となることから
となり、
よって
が成り立ち、分散は非負なので
を意味する。
よって
OLS推定の幾何学的意味#
OLS推定量
を
つまり、ベクトル
この行列
射影行列は、
よって、最小二乗法は
OLSとBLUE / BUE#
行列
OLSはガウス・マルコフの定理でBLUE(線形不偏推定量のなかで最良)だと示された。
Hansen (2022) は線形制約は不要で、線形と非線形の両方のすべての不偏推定量の中で最良(BUE)だと主張した。 一方で Pötscher & Preinerstorfer (2022) はHansen (2022)に対する批判を展開した。 Portnoy (2022) は「一般線形モデルの場合、十分に広い分布族内のすべての分布に対して、不偏な推定量は線形でなければならない」と述べている。
Hansen(2022) の「OLSが最良の不偏推定量(BUE)」が正しいとしても、Portnoy (2022)によれば「一般線形モデルの不偏推定量は線形推定量」なので結局BLUE=BUEになり、いずれの主張も間違っていないことになる。
参考:
参考文献#
東京大学出版会『統計学入門』
東京大学出版会『自然科学の統計学』
Hastie, T., Tibshirani, R., Friedman, J. H., & Friedman, J. H. (2009). The elements of statistical learning: data mining, inference, and prediction (Vol. 2, pp. 1-758). New York: springer.