概要#

単回帰モデル#

モデル#

説明変数\(x\)と被説明変数\(y\)\(N\)個のサンプルからなるデータセット\(\{(y_i, x_i)\}_{i=1}^N\)があるとする。

これに対する次のようなモデルを単回帰モデルという。

\[ y_i = \beta_0 + \beta_1 x_i + \varepsilon_i \]

パラメータの推定#

通常最小二乗法(ordinary least squares: OLS)という方法を使うのが最も一般的である。これは実測値\(y_i\)と予測値\(\hat{y}_i = \beta_0 + \beta_1 x_i\)との残差(residual)\(y_i - \hat{y}_i\)の二乗和(residual sum of squares)

\[ RSS = \sum_{i=1}^N (y_i - \hat{y}_i)^2 = \sum_{i=1}^N (y_i - \beta_0 - \beta_1 x_i)^2 \]

を最小化するようにパラメータを推定するというもの。

この最適化は、まずRSSをパラメータ\(\beta_0, \beta_1\)について微分し、これがゼロとなるようなパラメータを求める。

\[\begin{split} \left\{ \begin{align} \frac{\partial RSS}{\partial \beta_0} &= -2 \sum_{i=1}^N (y_i - \beta_0 - \beta_1 x_i) = 0 \\ \frac{\partial RSS}{\partial \beta_1} &= -2 \sum_{i=1}^N (y_i - \beta_0 - \beta_1 x_i) x_i = 0 \end{align}\right. \end{split}\]

これを整理すると

\[\begin{split} \left\{ \begin{align} N \beta_0 + \sum_{i=1}^N \beta_1 x_i &= \sum_{i=1}^N y_i \\ \sum_{i=1}^N \beta_0 x_i + \sum_{i=1}^N \beta_1 x_i^2 &= \sum_{i=1}^N y_i x_i \end{align} \right . \end{split}\]

となる。

式展開メモ

ひとつめの式

\[ \frac{\partial RSS}{\partial \beta_0} = -2 \sum_{i=1}^N (y_i - \beta_0 - \beta_1 x_i) = 0 \]

を整理すると

\[ 2 \underbrace{ \sum_{i=1}^N \beta_0 }_{N \beta_0} + 2 \sum_{i=1}^N \beta_1 x_i = 2 \sum_{i=1}^N y_i \]

整理すると

\[ N \beta_0 + \sum_{i=1}^N \beta_1 x_i = \sum_{i=1}^N y_i \]

2つ目の式

\[ \frac{\partial RSS}{\partial \beta_1} = -2 \sum_{i=1}^N (y_i - \beta_0 - \beta_1 x_i) x_i = 0 \]

は整理すると

\[ \sum_{i=1}^N \beta_0 x_i + \sum_{i=1}^N \beta_1 x_i^2 = \sum_{i=1}^N y_i x_i \]

1行目の両辺に\(\frac{1}{N} \sum_{i=1}^N x_i\)を乗じた

\[ \sum_{i=1}^N \beta_0 x_i + \frac{1}{N} \beta_1 (\sum_{i=1}^N x_i)^2 = \frac{1}{N} (\sum_{i=1}^N y_i)(\sum_{i=1}^N x_i) \]

を2行目から差し引くと

\[ \begin{align} \sum_{i=1}^N \beta_1 x_i^2 - \frac{1}{N} \beta_1 (\sum_{i=1}^N x_i)^2 &= \sum_{i=1}^N y_i x_i - \frac{1}{N} (\sum_{i=1}^N y_i)(\sum_{i=1}^N x_i) \end{align} \]

両辺に\(\frac{1}{N}\)を乗じると

\[ \begin{align} \frac{1}{N} \sum_{i=1}^N \beta_1 x_i^2 - \beta_1 (\frac{1}{N} \sum_{i=1}^N x_i)^2 &= \frac{1}{N} \sum_{i=1}^N y_i x_i - (\frac{1}{N} \sum_{i=1}^N y_i)(\frac{1}{N} \sum_{i=1}^N x_i) \end{align} \]

少し整理すると

\[ \begin{align} \beta_1 \left( \frac{1}{N} \sum_{i=1}^N x_i^2 - (\frac{1}{N} \sum_{i=1}^N x_i)^2 \right) &= \frac{1}{N} \sum_{i=1}^N y_i x_i - (\frac{1}{N} \sum_{i=1}^N y_i)(\frac{1}{N} \sum_{i=1}^N x_i) \end{align} \]
\[\begin{split} \begin{align} \beta_1 &= \frac { \frac{1}{N} \sum_{i=1}^N y_i x_i - (\frac{1}{N} \sum_{i=1}^N y_i)(\frac{1}{N} \sum_{i=1}^N x_i) } { \frac{1}{N} \sum_{i=1}^N x_i^2 - (\frac{1}{N} \sum_{i=1}^N x_i)^2 } \\ &= \frac { \frac{1}{N} \sum_{i=1}^N y_i x_i - \bar{y}\bar{x} } { \frac{1}{N} \sum_{i=1}^N x_i^2 - \bar{x}^2 } \\ &= \frac { Cov[x, y] } { Var[x] } \end{align} \end{split}\]

\(\beta_0\)については、上記の連立方程式の1つ目の式

\[ N \beta_0 + \sum_{i=1}^N \beta_1 x_i = \sum_{i=1}^N y_i \]

\(N\)で割ると

\[\begin{split} \begin{align} \beta_0 &= \frac{1}{N} \sum_{i=1}^N y_i - \frac{1}{N} \sum_{i=1}^N \beta_1 x_i \\ &= \bar{y} - \beta_1 \bar{x} \end{align} \end{split}\]

Note

最尤推定量(単回帰モデル)

\[ \beta_0 = \bar{y} - \beta_1 \bar{x} , \hspace{2em} \beta_1 = \frac { Cov[x, y] } { Var[x] } \]

残差二乗和(RSS)の等高線を描いてみると、OLS推定値が極小値となっていることがわかる。(OLS以外のExamplesは適当な値を入れた単なる例。最適解からズレていることがわかる。)

Hide code cell source
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns

# data -------------------------
np.random.seed(0)
n = 10
beta_0 = 5
beta_1 = 10
x = np.sort(np.random.uniform(size=n))
e = np.random.normal(scale=2, size=n)
y = beta_0 + beta_1 * x + e

# calc RSS ---------------------
def rss(y_true, x, beta_0, beta_1):
    y_pred = beta_0 + beta_1 * x
    return sum((y_true - y_pred)**2)

beta_0_range = np.linspace(-5, 20, 26)
beta_1_range = np.linspace(-5, 20, 26)
Beta0, Beta1 = np.meshgrid(beta_0_range, beta_1_range)
Loss = np.array([rss(y, x, b0, b1) for b0, b1 in zip(Beta0.flatten(), Beta1.flatten())]).reshape(Beta0.shape)

# OLS estimate ------------------
beta_1_hat = np.cov(x, y)[0, 1] / np.var(x)
beta_0_hat = y.mean() - beta_1_hat * x.mean()
loss_ = rss(y, x, beta_0_hat, beta_1_hat)
color_ols = "black"

# wrong estimate
beta_wrongs = [(15, -4), (5, 9)]
color_wrong = "red"

# plot ---------------------------
fig, axes = plt.subplots(ncols=2, figsize=[10,3])

# scatter
axes[0].scatter(x, y)
axes[0].set(xlabel="x", ylabel="y", title="example of linear models")

for i, (b0, b1) in enumerate(beta_wrongs, 1):
    y_pred = b0 + b1 * x
    axes[0].plot(x, y_pred, label=f"Example {i}: β0={b0:.1f}, β1={b1:.1f}", color=color_wrong, linestyle=":", alpha=.5)

y_pred = beta_0_hat + beta_1_hat * x
axes[0].plot(x, y_pred, label=f"OLS Estimates: β0={beta_0_hat:.1f}, β1={beta_1_hat:.1f}", color=color_ols)

axes[0].legend(loc="lower right")

# RSS
cs = axes[1].contourf(Beta0, Beta1, Loss, levels=[0, 50, 100, 200], alpha=0.5)
axes[1].set(xlabel="β0", ylabel="β1", title="Residual Sum of Squares")

for i, (b0, b1) in enumerate(beta_wrongs, 1):
    axes[1].scatter(b0, b1, color=color_wrong)
    axes[1].text(b0 * 1.1, b1, f"Example {i}\n(β0={b0:.1f}, β1={b1:.1f})", color=color_wrong, alpha=.5)

axes[1].scatter(beta_0_hat, beta_1_hat, color=color_ols)
axes[1].text(beta_0_hat * 1.1, beta_1_hat, f"Minimum Point (OLS Estimates)\n(β0={beta_0_hat:.1f}, β1={beta_1_hat:.1f})", color=color_ols)

fig.show()

# # 3d plot --------------------
# from matplotlib import cm
# fig, ax = plt.subplots(dpi=120, subplot_kw={"projection": "3d"})
# surf = ax.plot_surface(Beta0, Beta1, Loss, rstride=1, cstride=1, linewidth=1, antialiased=True, cmap=cm.coolwarm)
# fig.colorbar(surf, shrink=0.5, aspect=5, pad=0.11)
# ax.set(xlabel="beta_0", ylabel="beta_1", zlabel="Residual Sum of Squares")

# # # add a point
# # ax.scatter(beta_0_hat, beta_1_hat, loss_, color="darkorange")
# # ax.text(beta_0_hat * 0.99, beta_1_hat, loss_ * 1.1, f"Lowest point (β0={beta_0_hat:.1f}, β1={beta_1_hat:.1f})", color="darkorange")

# fig.show()
../../_images/dfc358170057aefeff5ea3569f07f231083883a94e2790a8522ec1917ffdee89.png

重回帰モデル#

説明変数を複数にしたものを重回帰モデルという。

モデル#

被説明変数を\(N\)次元ベクトル\(\boldsymbol{y}\)\(N\)はサンプル数)、 説明変数を\(N \times (K+1)\)次元ベクトル\(\boldsymbol{X}\)\(K\)は説明変数の次元数)、 パラメータを\(K+1\)次元ベクトル\(\boldsymbol{\beta}\)、 誤差項を\(N\)次元ベクトル\(\boldsymbol{\varepsilon}\)と書くと

\[\begin{split} \begin{bmatrix} y_1 \\ \vdots \\ y_N \end{bmatrix} = \begin{bmatrix} x_{10} & \cdots & x_{1K} \\ \vdots & & \vdots \\ x_{N0} & \cdots & x_{NK} \\ \end{bmatrix} \begin{bmatrix} \beta_0 \\ \vdots \\ \beta_K \end{bmatrix} + \begin{bmatrix} \varepsilon_1 \\ \vdots \\ \varepsilon_N \end{bmatrix} \end{split}\]

\[ \boldsymbol{y} = \boldsymbol{X} \boldsymbol{\beta} + \boldsymbol{\varepsilon} \]

と書くことができる

パラメータの推定#

残差二乗和を行列で表記すると

\[\begin{split} \newcommand{ \y }{ \boldsymbol{y} } \newcommand{ \X }{ \boldsymbol{X} } \newcommand{ \b }{ \boldsymbol{\beta} } \begin{align} RSS &= (\y - \X \b)^\top (\y - \X \b) \\ &= \y^\top \y - \y^\top \X \b - \b^\top \X^\top \y - \b^\top \X^\top \X \b \\ &= \y^\top \y - 2 \y^\top \X \b + \b^\top \X^\top \X \b \end{align} \end{split}\]

これを微分すると

\[ \frac{\partial RSS}{\partial \b} = - 2 \X^\top \y + 2 (\X^\top \X) \b \]

となるため、これが0となるような\(\b\)

\[ \b = (\X^\top \X)^{-1} \X^\top \y \]

となる