logo

ピアソン相関係数 📂数理統計学

ピアソン相関係数

定義 1

二つの確率変数 X,YX, Yに対して、次のように定義されたρ=ρ(X,Y)\rho = \rho (X,Y)ピアソン相関係数pearson Correlationと呼ぶ。 ρ=Cov(X,Y)σXσY \rho = { {\operatorname{Cov} (X,Y)} \over {\sigma_X \sigma_Y} }


  • σX\sigma_{X}σY\sigma_{Y}はそれぞれ XXYY標準偏差だ。

説明

ピアソン相関係数(Pearson) Correlation Coefficientは、二つの変数がお互いに**(線形)相関関係**を持っているかを確認する尺度になる。111–1に近ければ相関関係があると見なし、00ならばないとされる。

相関関係と独立は同じ概念ではないことに注意が必要だ。相関関係は、二つの変数が直線形のグラフを描くかだけを確認する。相関関係がないとしても必ずしも独立とは限らない。しかし、独立であれば相関関係がないと言える。この逆が成立するのは二つの変数が正規分布に従う場合に限られる。

性質

ピアソン相関係数は[1,1][-1,1]を超えない。つまり、 1ρ1 – 1 \le \rho \le 1

証明

証明は二つの方法を紹介したい。

コーシー・シュワルツの不等式を用いた証明

ρ=Cov(X,Y)σXσY=1nk=1n(xkμXσX)(ykμYσY) \rho = { {\operatorname{Cov} (X,Y)} \over {\sigma_X \sigma_Y} } = {1 \over n} \sum_{k=1}^{n} { \left( { { x_k - \mu_{X} } \over {\sigma_X} } \right) \left( { { y_k - \mu_{Y} } \over {\sigma_Y} } \right) } 両辺を二乗すると ρ2=1n2{k=1n(xkμXσX)(ykμYσY)}2 \rho ^2 = {1 \over {n^2} } \left\{ \sum_{k=1}^{n} { \left( { { x_k - \mu_{X} } \over {\sigma_X} } \right) \left( { { y_k - \mu_{Y} } \over {\sigma_Y} } \right) } \right\} ^ 2

コーシー・シュワルツの不等式(a2+b2)(x2+y2)(ax+by)2 ({a}^{2}+{b}^{2})({x}^{2}+{y}^{2})\ge { (ax+by) }^{ 2 }

コーシー・シュワルツの不等式により、 1n2{k=1n(xkμXσX)(ykμYσY)}21n2k=1n(xkμXσX)2k=1n(ykμYσY)2 {1 \over {n^2} } \left\{ \sum_{k=1}^{n} { \left( { { x_k - \mu_{X} } \over {\sigma_X} } \right) \left( { { y_k - \mu_{Y} } \over {\sigma_Y} } \right) } \right\} ^ 2 \le {1 \over {n^2} } \sum_{k=1}^{n} { \left( { { x_k - \mu_{X} } \over {\sigma_X} } \right) ^ 2 } \sum_{k=1}^{n} { \left( { { y_k - \mu_{Y} } \over {\sigma_Y} } \right) ^ 2 } 右辺を整理すると、 1n2k=1n(xkμXσX)2k=1n(ykμYσY)2=1σX2σY2k=1n(xkμXn)2k=1n(ykμYn)2=1σX2σY2σX2σY2=1 \begin{align*} & {1 \over {n^2} } \sum_{k=1}^{n} { \left( { { x_k - \mu_{X} } \over {\sigma_X} } \right) ^ 2 } \sum_{k=1}^{n} { \left( { { y_k - \mu_{Y} } \over {\sigma_Y} } \right) ^ 2 } \\ =& {1 \over { {\sigma_X}^2 {\sigma_Y}^2 } } \sum_{k=1}^{n} { \left( { { x_k - \mu_{X} } \over { \sqrt{n} } } \right) ^ 2 \sum_{k=1}^{n} \left( { { y_k - \mu_{Y} } \over {\sqrt{n}} } \right) ^ 2 } \\ =& {1 \over { {\sigma_X}^2 {\sigma_Y}^2 } } {\sigma_X}^2 {\sigma_Y}^2 \\ =& 1 \end{align*} ρ21\rho ^2 \le 1であるため、 1ρ1 -1 \le \rho \le 1

共分散の定義を用いた証明

Var(Y)=σY2,Var(X)=σX2\Var(Y)={ \sigma _ Y }^2, \Var(X)={ \sigma _ X }^2Z=YσYρXσX\displaystyle Z= \frac { Y }{ \sigma _Y } - \rho \frac { X }{ \sigma _X }共分散の定義とすると、 Var(Z)=1σY2Var(Y)+ρ2σX2Var(X)2ρσXσYCov(X,Y)=1σY2σY2+ρ2σX2σX22ρρ=1+ρ22ρ2=1ρ2 \begin{align*} \Var(Z)&=\frac { 1 }{ { \sigma _ Y }^2 }\Var(Y)+\frac { { \rho ^ 2 } }{ { \sigma _ X }^2 }\Var(X)-2\frac { \rho }{ { \sigma _X } { \sigma _Y } }\operatorname{Cov}(X,Y) \\ =& \frac { 1 }{ { \sigma _ Y }^2 }{ \sigma _ Y }^2+\frac { { \rho ^ 2 } }{ { \sigma _ X }^2 }{ \sigma _ X }^2-2\rho \cdot \rho \\ &=1+{ \rho ^ 2 }-2{ \rho ^ 2 } \\ &=1-{ \rho ^ 2 } \end{align*} Var(Z)0\Var(Z)\ge 0であるから、 1ρ20    ρ210    (ρ+1)(ρ1)0    1ρ1 \begin{align*} 1-{ \rho ^ 2 }\ge 0 \implies& { \rho ^ 2 }-1\le 0 \\ \implies& (\rho +1)(\rho –1)\le 0 \\ \implies& -1\le \rho \le 1 \end{align*}


  1. Hogg et al. (2013). Introduction to Mathematical Statistics (7th Edition): p104. ↩︎