logo

독립인 두 카이제곱 분포에서 F-분포 유도 📂확률분포론

독립인 두 카이제곱 분포에서 F-분포 유도

정리

확률 변수 $U,V$ 가 독립이고 $U \sim \chi^{2} ( r_{1})$, $V \sim \chi^{2} ( r_{2})$ 이라 하면 $$ {{ U / r_{1} } \over { V / r_{2} }} \sim F \left( r_{1} , r_{2} \right) $$

설명

두 데이터가 카이제곱 분포를 따르고 독립이라면, 그 비를 확률분포론으로 설명할 수 있을지도 모른다.통계학 전반에서는 표준화된 잔차의 제곱이 카이제곱 분포를 따르는 것으로 가정하기 때문에 이 점에 따라 F-검정등을 즐겨쓴다. 증명 자체가 중요한 것은 아니지만, 많은 분석에서 왜 F-검정을 사용하는지에 대한 인사이트를 주기 때문에 수리통계학을 공부하는 통계학도에게는 매우 중요한 팩트라고 할 수 있다.

유도1

전략: 카이제곱 분포끼리의 조인트 밀도 함수로 직접 연역한다.

카이제곱 분포의 정의: 자유도 $r > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $\chi^{2} (r)$ 를 카이제곱 분포라고 한다. $$ f(x) = {{ 1 } \over { \Gamma (r/2) 2^{r/2} }} x^{r/2-1} e^{-x/2} \qquad , x \in (0, \infty) $$

F-분포의 정의: 자유도 $r_{1}, r_{2} > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $F \left( r_{1} , r_{2} \right)$ 를 F-분포라고 한다. $$ f(x) = {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} x^{r_{1} / 2 - 1} \left( 1 + {{ r_{1} } \over { r_{2} }} x \right)^{-(r_{1} + r_{2}) / 2} \qquad , x \in (0, \infty) $$


$U,V$ 는 독립이므로 조인트 밀도함수는 $u,v \in (0,\infty)$ 에 대해 다음과 같다. $$ h(u,v) = {{ 1 } \over { \Gamma \left( {{ r_{1} } \over { 2 }} \right) \Gamma \left( {{ r_{2} } \over { 2 }} \right) 2^{(r_{1} + r_{2})/2} }} u^{r_{1}/2 - 1} v^{r_{2}/2 - 1} e^{-(u+v)/2} $$ 이제 $\displaystyle W:= {{ U/r_{1} } \over { V / r_{2} }}$ 그리고 $Z := V$ 라고 하면 $u = (r_{1}/r_{2})zw$ 이고 $v = z$ 이므로 $$ \left| J \right| = \begin{vmatrix} (r_{1}/r_{2})z & (r_{1}/r_{2})w \\ 0 & 1 \end{vmatrix} = (r_{1}/r_{2})z \ne 0 $$ 따라서 $W,Z$ 의 조인트 밀도 함수는 $w,z \in (0,\infty)$ 에 대해 $$ g(w,z) = {{ 1 } \over { \Gamma \left( {{ r_{1} } \over { 2 }} \right) \Gamma \left( {{ r_{2} } \over { 2 }} \right) 2^{(r_{1} + r_{2})/2} }} \left( {{ r_{1} z w } \over { r_{2} }} \right)^{{{ r_{1} - 2 } \over { 2 }}} z^{{{ r_{2} - 2 } \over { 2 }}} \exp \left[ - {{ z } \over { 2 }} \left( {{ r_{1} w } \over { r_{2} }} + 1 \right) \right] {{ r_{1} z } \over { r_{2} }} $$ $W$ 의 마지널 밀도 함수 $g_{1}$ 은 $\displaystyle y:= {{ z } \over { 2 }} \left( {{ r_{1} w } \over { r_{2} }} + 1 \right)$ 로 두어서 $$ \begin{align*} g_{1} (w) =& \int_{-\infty}^{\infty} g(w,z) dz \\ =& \int_{-\infty}^{\infty} {{ 1 } \over { \Gamma \left( {{ r_{1} } \over { 2 }} \right) \Gamma \left( {{ r_{2} } \over { 2 }} \right) 2^{(r_{1} + r_{2})/2} }} \left( {{ r_{1} z w } \over { r_{2} }} \right)^{{{ r_{1} - 2 } \over { 2 }}} z^{{{ r_{2} - 2 } \over { 2 }}} \exp \left[ - {{ z } \over { 2 }} \left( {{ r_{1} w } \over { r_{2} }} + 1 \right) \right] {{ r_{1} z } \over { r_{2} }} dz \\ =& \int_{-\infty}^{\infty} {{ (r_{1} / r_{2})^{r_{1} / 2} w^{r_{1}/2 - 1} } \over { \Gamma \left( {{ r_{1} } \over { 2 }} \right) \Gamma \left( {{ r_{2} } \over { 2 }} \right) 2^{(r_{1} + r_{2})/2} }} \left( {{ 2y } \over { {{ r_{1} } \over { r_{2} }} w + 1 }} \right)^{{{ r_{1} + r_{2} } \over { 2 }} - 1} e^{-y} \left( {{ 2 } \over { {{ r_{1} } \over { r_{2} }} w + 1 }} \right) dy \\ =& {{ \Gamma \left( {{ r_{1} + r_{2} } \over { 2 }} \right) \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} } \over { \Gamma \left( {{ r_{1} } \over { 2 }} \right) \Gamma \left( {{ r_{2} } \over { 2 }} \right) }} {{ w^{r_{1}/2 - 1} } \over { \left( 1 + {{ r_{1} } \over { r_{2} }} w \right)^{(r_{1} + r_{2}) / 2} }} \\ =& {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} w^{r_{1} / 2 - 1} \left( 1 + {{ r_{1} } \over { r_{2} }} w \right)^{-(r_{1} + r_{2}) / 2} \end{align*} $$ 따라서 $$ W \sim F (r_{1} , r_{2}) $$


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): 193-194. ↩︎