数理統計学におけるコーシー-シュワルツの不等式の証明
定理
確率変数について$X, Y$が成立する。 $$ \operatorname{Cov} (X,Y) \le \operatorname{Var} X \operatorname{Var} Y $$ 等号が成立する必要十分条件は以下の通りだ1。 $$ \exist a \ne 0 , b \in \mathbb{R} : a X + b = Y $$
証明
$X,Y$の平均をそれぞれ$\mu_{X}$、$\mu_{Y}$としよう。 $$ \begin{align*} h(t) :=& E \left( \left[ \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) \right]^{2} \right) \\ =& t^{2} E \left[ \left( X - \mu_{X} \right)^{2} \right] + 2t E \left[ \left( X - \mu_{X} \right) \left( Y - \mu_{Y} \right) \right] + \left[ \left( Y - \mu_{Y} \right)^{2} \right] \\ =& \operatorname{Var} X t^{2} + 2 \operatorname{Cov} (X,Y) t + \operatorname{Var} Y \end{align*} $$ 解の公式の根判定法によると、$h$の根が最大でも一つだけ存在するためには、以下が成立しなければならない。 $$ \left( 2 \operatorname{Cov}(X,y) \right)^{2} - 4 \operatorname{Var} X \cdot \operatorname{Var} Y \le 0 $$ これを整理すると、以下のコーシー・シュワルツの不等式を得る。 $$ \operatorname{Cov} (X,Y) \le \operatorname{Var} X \operatorname{Var} Y $$ 等号が成立するためには$h (t) = 0$でなければならず、$a := -t$と$b := \mu_{X}t + \mu_{Y}$を設定した場合、以下と等価である。 $$ \begin{align*} & P \left( \left[ \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) \right]^{2} = 0 \right) = 1 \\ \iff & P \left( \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) = 0 \right) = 1 \\ \iff & P \left( Y = aX + b \right) = 1 \end{align*} $$
■
説明
一見、分散$\operatorname{Var}$と共分散$\operatorname{Cov}$が登場するため、一般的に知られているコーシー・シュワルツの不等式と異なるように見えるが、詳しく調べるとコーシー・シュワルツの不等式と呼ばない理由が全くない。数理統計学での応用を考えた場合、不等式自体だけでなく、等号が成立する必要十分条件 $$ \exist a \ne 0 , b \in \mathbb{R} : a X + b = Y $$ が非常に便利に使われる。
Casella. (2001). Statistical Inference(2nd Edition): p172. ↩︎