F-분포

F-분포

f Distribution

정의 1

자유도 $r_{1}, r_{2} > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $F \left( r_{1} , r_{2} \right)$ 를 F-분포라고 한다. $$ f(x) = {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} x^{r_{1} / 2 - 1} \left( 1 + {{ r_{1} } \over { r_{2} }} x \right)^{-(r_{1} + r_{2}) / 2} \qquad , x \in (0, \infty) $$


기초 성질

적률 생성 함수

  • [1]: F-분포는 적률 생성 함수가 존재하지 않는다.

평균과 분산

  • [2]: $X \sim F ( r_{1} , r_{2})$ 면 $$ \begin{align*} E(X) =& {{ r_{2} } \over { r_{2} - 2 }} & \qquad , r_{2} > 2 \\ \text{Var}(X) =& {{ 2 r_{2}^{2} (r_{1} + r_{2} - 2) } \over { r_{1} (r_{2} -2)^{2} (r_{2} - 4) }} & \qquad , r_{2} > 4 \end{align*} $$

정리

확률 변수 $U,V$ 가 독립이고 $U \sim \chi^{2} ( r_{1})$, $V \sim \chi^{2} ( r_{2})$ 이라 하자.

$k$차 적률

  • [a]: $d_{2} > 2k$ 면 $\displaystyle F := {{ U / r_{1} } \over { V / r_{2} }}$ 는 $k$차 적률이 존재하고 $$ E F^{k} = \left( {{ r_{2} } \over { r_{1} }} \right)^{k} E U^{k} E V^{-k} $$

카이제곱 분포에서 유도

  • [b]: $${{ U / r_{1} } \over { V / r_{2} }} \sim F \left( r_{1} , r_{2} \right)$$

베타분포 유도

  • [c]: 자유도 $r_{1} , r_{2}$ 인 F-분포를 따르는 확률변수 $X \sim F \left( r_{1}, r_{2} \right)$ 에 대해 다음과 같이 정의된 $Y$ 는 베타분포 $\text{Best} \left( {{ r_{1} } \over { 2 }} , {{ r_{2} } \over { 2 }} \right)$ 를 따른다. $$ Y := {{ \left( r_{1} / r_{2} \right) X } \over { 1 + \left( r_{1} / r_{2} \right) X }} \sim \text{Beta} \left( {{ r_{1} } \over { 2 }} , {{ r_{2} } \over { 2 }} \right) $$

t-분포에서 유도

  • [d]: 자유도 $\nu > 0$ 인 t-분포를 따르는 확률변수 $X \sim t(\nu)$ 에 대해 다음과 같이 정의된 $Y$ 는 F-분포 $F (1,\nu)$ 을 따른다. $$ Y := X^{2} \sim F (1,\nu) $$

상호역성Reciprocality

  • [e]: $X \sim F \left( r_{1}, r_{2} \right)$ 면 그 역수의 분포는 다음과 같다. $$ {{ 1 } \over { X }} \sim F \left( r_{2}, r_{1} \right) $$

설명

t-분포가 스튜던트Student t-분포라 불리듯, F-분포는 통계학자 조지 스네디코르의 이름을 따서 스네디코르Snedecor F-분포라 불리기도 한다.2

F-분포의 확률 밀도 함수는 일견 엄청나게 복잡해보이지만, 실제로 수식을 건드릴 일은 별로 없고 카이제곱 분포와의 관계를 잘 이해하는 게 최우선이다. 카이제곱 분포가 적합도 검정을 할 때 쓰일 수 있었던 것처럼, F-분포는 두 모집단의 분산을 비교하는데에 쓰일 수 있다. 정리 [b]에서 곧바로 확인할 수 있듯 F-분포는 카이제곱 분포를 따르는 데이터의 비로써 표현되기 때문에 이 통계량이 $1$ 에서 너무 멀어지면 두 분포의 분산이 다르다고 짐작할 수 있는 것이다.

증명

[1]

확률 변수의 적률 생성 함수가 존재한다는 것은 모든 $k \in \mathbb{N}$ 에 대해 $k$차 적률이 존재한다는 것이다. 그러나 정리 [a]에서 F-분포의 $k$차 적률은 $k < d_{2} / 2$ 일 때 존재하므로 적률 생성 함수가 존재할 수 없다.

[2]

적률 공식 [a]를 이용한다.

[a]

$t = {{ r_{1} } \over { r_{2} }} x$ 와 같이 치환하면 $dt = {{ r_{1} } \over { r_{2} }} dx$ 이므로 $$ \begin{align*} E F^{k} =& \int_{0}^{\infty} x^{k} {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} x^{r_{1} / 2 - 1} \left( 1 + {{ r_{1} } \over { r_{2} }} x \right)^{-(r_{1} + r_{2}) / 2} dx \\ =& {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} \int_{0}^{\infty} x^{k + r_{1} / 2 - 1} \left( 1 + {{ r_{1} } \over { r_{2} }} x \right)^{-(r_{1} + r_{2}) / 2} dx \\ =& {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} \int_{0}^{\infty} \left( {{ r_{2} } \over { r_{1} }} t \right)^{k + r_{1} / 2 - 1} \left( 1 + t \right)^{-(r_{1} + r_{2}) / 2} {{ r_{2} } \over { r_{1} }} dt \\ =& {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{1} } \over { r_{2} }} \right)^{r_{1} / 2} \left( {{ r_{2} } \over { r_{1} }} \right)^{k + r_{1} / 2}\int_{0}^{\infty} t^{k + r_{1} / 2 } \left( 1 + t \right)^{-r_{1}/2 - r_{2}/ 2} dt \\ =& {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{2} } \over { r_{1} }} \right)^{k }\int_{0}^{\infty} t^{k + r_{1} / 2 } \left( 1 + t \right)^{-(r_{1}/2+k) - (r_{2}/ 2-k)} dt \end{align*} $$

베타함수의 이상적분꼴 표현: $$ B(p,q)=\int_{0}^{\infty}\frac{ t^{p-1} }{ (1+t)^{p+q}}dt $$

베타함수와 감마함수의 관계: $$ B(p,q) = {{\Gamma (p) \Gamma (q)} \over {\Gamma (p+q) }} $$

$$ \begin{align*} EF^{k} =& {{ 1 } \over { B \left( r_{1}/2 , r_{2} / 2 \right) }} \left( {{ r_{2} } \over { r_{1} }} \right)^{k } B \left( {{ r_{1} } \over { 2 }} + k, {{ r_{2} } \over { 2 }} - k \right) \\ =& \left( {{ r_{2} } \over { r_{1} }} \right)^{k } {{ \Gamma (r_{1}/2 + r_{2}/2) } \over { \Gamma (r_{1}/2 ) \Gamma ( r_{2}/2) }} {{ \Gamma (r_{1}/2 + k) \Gamma ( r_{2}/2 - k) } \over { \Gamma (r_{1}/2 +k + r_{2}/2 - k) }} \\ =& \left( {{ r_{2} } \over { r_{1} }} \right)^{k } {{ 1 } \over { \Gamma (r_{1}/2 ) \Gamma ( r_{2}/2) }} {{ \Gamma (r_{1}/2 + k) \Gamma ( r_{2}/2 - k) } \over { 1 }} \\ =& \left( {{ r_{2} } \over { r_{1} }} \right)^{k } {{ \Gamma (r_{1}/2 + k) 2^{k}} \over { \Gamma (r_{1}/2 ) }} {{ 2^{-k} \Gamma ( r_{2}/2 - k) } \over { \Gamma ( r_{2}/2) }} \end{align*} $$

카이제곱 분포의 적률: $X \sim \chi^{2} (r)$ 이라고 하자. $k > - r/ 2$ 이면 $k$차 적률이 존재하고 $$ E X^{k} = {{ 2^{k} \Gamma (r/2 + k) } \over { \Gamma (r/2) }} $$

$$ E F^{k} = \left( {{ r_{2} } \over { r_{1} }} \right)^{k } E U^{k} E V^{-k} $$

[b]

조인트 밀도 함수로 직접 연역한다.

[c]

변수변환으로 직접 연역한다.

[d]

카이제곱 분포의 비로써 우회한다.

[e]

분자와 분모가 뒤집혔으니 정리 [b]에 따라 자명하다. 애초에 실용적인 통계학자의 관점으로는 정리 [b]로 F-분포를 정의하고, 그에 따른 확률 밀도 함수를 유도하는 것이 더 자연스럽다.


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p194. ↩︎

  2. Casella. (2001). statistiical Inference(2nd Edition): p222. ↩︎

댓글