logo

数理統計学におけるコーシー-シュワルツの不等式の証明 📂レンマ

数理統計学におけるコーシー-シュワルツの不等式の証明

定理

確率変数についてX,YX, Yが成立する。 Cov(X,Y)VarXVarY \operatorname{Cov} (X,Y) \le \operatorname{Var} X \operatorname{Var} Y 等号が成立する必要十分条件は以下の通りだ1a0,bR:aX+b=Y \exist a \ne 0 , b \in \mathbb{R} : a X + b = Y

証明

X,YX,Yの平均をそれぞれμX\mu_{X}μY\mu_{Y}としよう。 h(t):=E([(XμX)t+(YμY)]2)=t2E[(XμX)2]+2tE[(XμX)(YμY)]+[(YμY)2]=VarXt2+2Cov(X,Y)t+VarY \begin{align*} h(t) :=& E \left( \left[ \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) \right]^{2} \right) \\ =& t^{2} E \left[ \left( X - \mu_{X} \right)^{2} \right] + 2t E \left[ \left( X - \mu_{X} \right) \left( Y - \mu_{Y} \right) \right] + \left[ \left( Y - \mu_{Y} \right)^{2} \right] \\ =& \operatorname{Var} X t^{2} + 2 \operatorname{Cov} (X,Y) t + \operatorname{Var} Y \end{align*} 解の公式の根判定法によると、hhの根が最大でも一つだけ存在するためには、以下が成立しなければならない。 (2Cov(X,y))24VarXVarY0 \left( 2 \operatorname{Cov}(X,y) \right)^{2} - 4 \operatorname{Var} X \cdot \operatorname{Var} Y \le 0 これを整理すると、以下のコーシー・シュワルツの不等式を得る。 Cov(X,Y)VarXVarY \operatorname{Cov} (X,Y) \le \operatorname{Var} X \operatorname{Var} Y 等号が成立するためにはh(t)=0h (t) = 0でなければならず、a:=ta := -tb:=μXt+μYb := \mu_{X}t + \mu_{Y}を設定した場合、以下と等価である。 P([(XμX)t+(YμY)]2=0)=1    P((XμX)t+(YμY)=0)=1    P(Y=aX+b)=1 \begin{align*} & P \left( \left[ \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) \right]^{2} = 0 \right) = 1 \\ \iff & P \left( \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) = 0 \right) = 1 \\ \iff & P \left( Y = aX + b \right) = 1 \end{align*}

説明

一見、分散Var\operatorname{Var}共分散Cov\operatorname{Cov}が登場するため、一般的に知られているコーシー・シュワルツの不等式と異なるように見えるが、詳しく調べるとコーシー・シュワルツの不等式と呼ばない理由が全くない。数理統計学での応用を考えた場合、不等式自体だけでなく、等号が成立する必要十分条件 a0,bR:aX+b=Y \exist a \ne 0 , b \in \mathbb{R} : a X + b = Y が非常に便利に使われる。


  1. Casella. (2001). Statistical Inference(2nd Edition): p172. ↩︎