logo

単純回帰分析 📂統計的分析

単純回帰分析

概要

回帰分析は、変数間の関係を見つける方法であって、特に線形関係を明らかにするのに便利だ。単純回帰分析simple Linear regressionは、その中でも一番簡単で、従属変数(反応変数)一つと独立変数(説明変数)一つに関する回帰分析を指す。

モデル 1

99757D375B4B0F0A14.png

独立変数 xix_{i} と従属変数 yiy_{i} が線形関係にあるというのは、ある a,ba,b に対して yi=axi+by_{i} = ax_{i} + b で表せるということだ。もちろん、実際のデータに関しては、誤差が生じるので、正確には誤差項を含めて yi=axi+b+εiy_{i} = ax_{i} + b + \varepsilon_{i} になる。これを回帰分析でよく使う形に変えてみると yi=β0+β1xi+εi y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i} 設計行列で表すと [y1y2yn]=[1x11x21xn][β0β1]+[ε1ε2εn] \begin{bmatrix} y_{1} \\ y_{2} \\ \vdots \\ y_{n} \end{bmatrix} = \begin{bmatrix} 1 & x_{1} \\ 1 & x_{2} \\ \vdots & \vdots \\ 1 & x_{n} \end{bmatrix} \begin{bmatrix} \beta_{0} \\ \beta_{1} \end{bmatrix} + \begin{bmatrix} \varepsilon_{1} \\ \varepsilon_{2} \\ \vdots \\ \varepsilon_{n} \end{bmatrix} 整理すると Y=Xβ+εY = X \beta + \varepsilon を得る。

最適化

これは 最小二乗法を通して ε2=YXβ2\| \varepsilon \|_{2} = \| Y - X \beta \|_{2} が最小になる β=[β0β1]\beta = \begin{bmatrix} \beta_{0} \\ \beta_{1} \end{bmatrix} を見つける問題になる。β\beta は直線の切片と傾きを表しているので、β\beta を見つけるのは、データを線形的に説明してくれる最も誤差が少ない直線を見つけることだ。もちろん、二変数が厳密にどのような関係を持っているかはわからないので、回帰係数推定値 β0^\hat{ \beta_{0}}β1^\hat{ \beta_{1} } を見つけなければならない。簡単に言えば、データに最も似た直線を引けばいい。

20190905\_104344.png このような問題は普通、数理線形代数のツールを使って解くが、単純回帰分析は単純な微分積分学でも解くことができる。行列を再び分解して表すと ε2=i=1n(yiβ0β1xi)2 \begin{align} \varepsilon^2 = \sum_{i=1}^{n} ( y_{i} - \beta_{0} - \beta_{1} x_{i} )^2 \end{align} 最小にする β0=β0^\beta_{0} = \hat{ \beta_{0} }β1=β1^\beta_{1} = \hat {\beta_{1}} を見つけることだ。式 (1)(1) から β0\beta_{0} に関して偏微分を取ると ε2β0=2i=1n(yiβ0β1xi) {{ \partial \varepsilon^2 } \over { \partial \beta_{0}}} = -2 \sum_{i=1}^{n} (y_{i} - \beta_{0} - \beta_{1} x_{i} ) ε2\varepsilon^2 が最小になるためには nβ0=i=1nyiβ1i=1nxi n \beta_{0} = \sum_{i=1}^{n} y_{i} - \beta_{1} \sum_{i=1}^{n} x_{i} 従ってε2\varepsilon^2β0=yβ1x\beta_{0} = \overline{y} - \beta_{1} \overline{x} の時、最小になる。式 (1)(1) から β1\beta_{1} に関して偏微分を取ると ε2β1=2i=1nxi(yiβ0β1xi) {{ \partial \varepsilon^2 } \over { \partial \beta_{1}}} = -2 \sum_{i=1}^{n} x_{i} (y_{i} - \beta_{0} - \beta_{1} x_{i} ) ε2\varepsilon^2β0=yβ1x\beta_{0} = \overline{y} - \beta_{1} \overline{x} のため最小になるので i=1nxi(yiy+β1xβ1xi)=0 \sum_{i=1}^{n} x_{i} (y_{i} - \overline{y} + \beta_{1} \overline{x} - \beta_{1} x_{i} ) = 0 つまり、 β1i=1n(xi2xxi)=i=1nxiyii=1nxiy \beta_{1} \sum_{i=1}^{n} ( x_{i}^2 - \overline{x} x_{i} ) = \sum_{i=1}^{n} x_{i} y_{i} - \sum_{i=1}^{n} x_{i} \overline{y} 整理すると β1=i=1nxiyii=1nxiyi=1n(xi2xxi)=i=1n(xix)(yiy)i=1n(xi2x2)=Cov(X,Y)Var(X)=Cor(X,Y)sysx \begin{align*} \beta_{1} =& {{\sum_{i=1}^{n} x_{i} y_{i} - \sum_{i=1}^{n} x_{i} \overline{y} } \over {\sum_{i=1}^{n} ( x_{i}^2 - \overline{x} x_{i} ) }} \\ =& {{ \sum_{i=1}^n ( x_{i} - \overline{x} ) ( y_{i} - \overline{y} ) } \over { \sum_{i=1}^{n} (x_{i}^2 - \overline{x}^2 )}} \\ =& {{ \operatorname{Cov} (X,Y) } \over { \operatorname{Var} ( X ) }} \\ =& \text{Cor} (X,Y) {{s_{y}} \over {s_{x}}} \end{align*} 実際の計算では、β1^\hat{\beta_{1}} よりも先に β0^\hat{\beta_{0}} を求めるべきだろう。

参照


  1. Hadi. (2006). Regression Analysis by Example(4th Edition): p24. ↩︎