독립인 두 감마 분포에서 베타 분포 유도
정리
두 확률 변수 $X_{1},X_{2}$ 가 독립이고 $X_{1} \sim \Gamma ( \alpha_{1} , 1)$, $X_{2} \sim \Gamma ( \alpha_{2} , 1)$ 이라 하면 $$ {{ X_{1} } \over { X_{1} + X_{2} }} \sim \text{beta} \left( \alpha_{1} , \alpha_{2} \right) $$
설명
두 데이터가 감마 분포를 따르고 독립이라면, 그 합계를 계산했을 때의 비율을 확률분포론으로 설명하는데 쓰일 수 있을지도 모른다. 특히 감마분포는 여러가지 확률분포를 비교적 자유롭게 넘나들 수 있으므로 팩트로써는 알아두는 게 좋다.
유도1
전략: 감마 분포끼리의 조인트 밀도 함수로 직접 연역한다.
감마 분포의 정의: $k, \theta > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $\Gamma ( k , \theta )$ 를 감마 분포라고 한다. $$ f(x) = {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} \qquad , x > 0 $$
베타 분포의 정의: $\alpha , \beta > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $\text{Beta}(\alpha,\beta)$ 를 베타 분포라고 한다. $$ f(x) = {{ 1 } \over { B(\alpha,\beta) }} x^{\alpha - 1} (1-x)^{\beta - 1} \qquad , x \in [0,1] $$
$X_{1}, X_{2}$ 는 독립이므로 조인트 밀도 함수 $h$ 는 $x_{1} , x_{2} \in (0, \infty)$ 에 대해 다음과 같다. $$ h(x_{1} , x_{2}) = {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} x_{1}^{\alpha_{1} -1 } x_{2}^{\alpha_{2} -1 } e^{-x_{1} - x_{2}} $$ 이제 $Y_{1} := X_{1} + X_{2}$ 그리고 $Y_{2} := X_{1} / (X_{1} + X_{2})$ 라고 하면 $x_{1} = y_{1} y_{2}$ 이고 $x_{2} = y_{1} ( 1 - y_{2} )$ 이므로 $$ J = \begin{vmatrix} y_{2} & y_{1} \\ 1 - y_{2} & -y_{1} \end{vmatrix} = - y_{1} \ne 0 $$ 따라서 $Y_{1}, Y_{2}$ 의 조인트 밀도 함수는 $y_{1} \in (0,\infty) , y_{2} \in (0,1)$ 에 대해 $$ \begin{align*} g(y_{1},y_{2}) =& |y_{1}| {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} (y_{1} y_{2})^{\alpha_{1} -1 } \left[ y_{1} ( 1 - y_{2} ) \right]^{\alpha_{2} -1 } e^{-y_{1}} \\ =& {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \\ =& {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \end{align*} $$ $Y_{1},Y_{2}$ 의 마지널 밀도 함수 $g_{1}, g_{2}$ 는 $$ g_{1}(y_{1}) = {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \\ g_{2}(y_{2}) = {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} $$ 따라서 $$ Y_{1} \sim \Gamma ( \alpha_{1} + \alpha_{2} ,1 ) \\ Y_{2} \sim \text{beta} (\alpha_{1} , \alpha_{2}) $$
■
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): 164-165. ↩︎