logo

수리통계학에서의 코시-슈바르츠 부등식 증명 📂보조정리

수리통계학에서의 코시-슈바르츠 부등식 증명

정리

확률변수 $X, Y$ 에 대해 다음이 성립한다. $$ \operatorname{Cov} (X,Y) \le \operatorname{Var} X \operatorname{Var} Y $$ 등호가 성립하는 필요충분조건은 다음과 같다1. $$ \exist a \ne 0 , b \in \mathbb{R} : a X + b = Y $$

증명

$X,Y$ 의 모평균이 각각 $\mu_{X}$, $\mu_{Y}$ 라 하자. $$ \begin{align*} h(t) :=& E \left( \left[ \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) \right]^{2} \right) \\ =& t^{2} E \left[ \left( X - \mu_{X} \right)^{2} \right] + 2t E \left[ \left( X - \mu_{X} \right) \left( Y - \mu_{Y} \right) \right] + \left[ \left( Y - \mu_{Y} \right)^{2} \right] \\ =& \operatorname{Var} X t^{2} + 2 \operatorname{Cov} (X,Y) t + \operatorname{Var} Y \end{align*} $$ 근의 공식의 근 판정법에 따르면 $h$ 의 근이 많아도 하나만 존재하려면 다음이 성립해야한다. $$ \left( 2 \operatorname{Cov}(X,y) \right)^{2} - 4 \operatorname{Var} X \cdot \operatorname{Var} Y \le 0 $$ 이를 정리하면 다음의 코시 슈바르츠 부등식을 얻는다. $$ \operatorname{Cov} (X,Y) \le \operatorname{Var} X \operatorname{Var} Y $$ 등호가 성립하려면 $h (t) = 0$ 이어야하고, $a := -t$ 그리고 $b := \mu_{X}t + \mu_{Y}$ 라고 둘 때 다음과 동치다. $$ \begin{align*} & P \left( \left[ \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) \right]^{2} = 0 \right) = 1 \\ \iff & P \left( \left( X - \mu_{X} \right) t + \left( Y - \mu_{Y} \right) = 0 \right) = 1 \\ \iff & P \left( Y = aX + b \right) = 1 \end{align*} $$

설명

언뜻 분산 $\operatorname{Var}$공분산 $\operatorname{Cov}$가 등장하기 때문에 보통 알려진 코시-슈바르츠 부등식과 달라보이지만 자세히 파고들어보면 코시-슈바르츠 부등식이라 부르지 않을 이유가 전혀 없다. 수리통계학에서의 응용을 생각했을 때는 부등식 자체도 자체지만 등호가 성립하는 필요충분조건 $$ \exist a \ne 0 , b \in \mathbb{R} : a X + b = Y $$ 이 아주 요긴하게 쓰인다.


  1. Casella. (2001). Statistical Inference(2nd Edition): p172. ↩︎