logo

독립인 두 감마 분포에서 베타 분포 유도 📂확률분포론

독립인 두 감마 분포에서 베타 분포 유도

정리

확률 변수 X1,X2X_{1},X_{2}독립이고 X1Γ(α1,1)X_{1} \sim \Gamma ( \alpha_{1} , 1), X2Γ(α2,1)X_{2} \sim \Gamma ( \alpha_{2} , 1) 이라 하면 X1X1+X2beta(α1,α2) {{ X_{1} } \over { X_{1} + X_{2} }} \sim \text{beta} \left( \alpha_{1} , \alpha_{2} \right)

설명

두 데이터가 감마 분포를 따르고 독립이라면, 그 합계를 계산했을 때의 비율을 확률분포론으로 설명하는데 쓰일 수 있을지도 모른다. 특히 감마분포는 여러가지 확률분포를 비교적 자유롭게 넘나들 수 있으므로 팩트로써는 알아두는 게 좋다.

유도1

전략: 감마 분포끼리의 조인트 밀도 함수로 직접 연역한다.

감마 분포의 정의: k,θ>0k, \theta > 0 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 Γ(k,θ)\Gamma ( k , \theta ) 를 감마 분포라고 한다. f(x)=1Γ(k)θkxk1ex/θ,x>0 f(x) = {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} \qquad , x > 0

베타 분포의 정의: α,β>0\alpha , \beta > 0 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 Beta(α,β)\text{Beta}(\alpha,\beta) 를 베타 분포라고 한다. f(x)=1B(α,β)xα1(1x)β1,x[0,1] f(x) = {{ 1 } \over { B(\alpha,\beta) }} x^{\alpha - 1} (1-x)^{\beta - 1} \qquad , x \in [0,1]

X1,X2X_{1}, X_{2} 는 독립이므로 조인트 밀도 함수 hhx1,x2(0,)x_{1} , x_{2} \in (0, \infty) 에 대해 다음과 같다. h(x1,x2)=1Γ(α1)Γ(α2)x1α11x2α21ex1x2 h(x_{1} , x_{2}) = {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} x_{1}^{\alpha_{1} -1 } x_{2}^{\alpha_{2} -1 } e^{-x_{1} - x_{2}} 이제 Y1:=X1+X2Y_{1} := X_{1} + X_{2} 그리고 Y2:=X1/(X1+X2)Y_{2} := X_{1} / (X_{1} + X_{2}) 라고 하면 x1=y1y2x_{1} = y_{1} y_{2} 이고 x2=y1(1y2)x_{2} = y_{1} ( 1 - y_{2} ) 이므로 J=y2y11y2y1=y10 J = \begin{vmatrix} y_{2} & y_{1} \\ 1 - y_{2} & -y_{1} \end{vmatrix} = - y_{1} \ne 0 따라서 Y1,Y2Y_{1}, Y_{2} 의 조인트 밀도 함수는 y1(0,),y2(0,1)y_{1} \in (0,\infty) , y_{2} \in (0,1) 에 대해 g(y1,y2)=y11Γ(α1)Γ(α2)(y1y2)α11[y1(1y2)]α21ey1=1Γ(α1)Γ(α2)y1α1+α21ey1y2α11(1y2)α21=1Γ(α1+α2)y1α1+α21ey1Γ(α1+α2)Γ(α1)Γ(α2)y2α11(1y2)α21 \begin{align*} g(y_{1},y_{2}) =& |y_{1}| {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} (y_{1} y_{2})^{\alpha_{1} -1 } \left[ y_{1} ( 1 - y_{2} ) \right]^{\alpha_{2} -1 } e^{-y_{1}} \\ =& {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \\ =& {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \end{align*} Y1,Y2Y_{1},Y_{2}마지널 밀도 함수 g1,g2g_{1}, g_{2}g1(y1)=1Γ(α1+α2)y1α1+α21ey1g2(y2)=Γ(α1+α2)Γ(α1)Γ(α2)y2α11(1y2)α21 g_{1}(y_{1}) = {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \\ g_{2}(y_{2}) = {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} 따라서 Y1Γ(α1+α2,1)Y2beta(α1,α2) Y_{1} \sim \Gamma ( \alpha_{1} + \alpha_{2} ,1 ) \\ Y_{2} \sim \text{beta} (\alpha_{1} , \alpha_{2})


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): 164-165. ↩︎