logo

二つの独立したガンマ分布からのベータ分布の導出 📂確率分布論

二つの独立したガンマ分布からのベータ分布の導出

定理

二つの確率変数X1,X2X_{1},X_{2}独立であり、X1Γ(α1,1)X_{1} \sim \Gamma ( \alpha_{1} , 1)X2Γ(α2,1)X_{2} \sim \Gamma ( \alpha_{2} , 1)とするならば、 X1X1+X2beta(α1,α2) {{ X_{1} } \over { X_{1} + X_{2} }} \sim \text{beta} \left( \alpha_{1} , \alpha_{2} \right)

説明

二つのデータがガンマ分布に従い、独立していれば、その合計の比率を確率分布論を使って説明できるかもしれない。特にガンマ分布は、様々な確率分布間を比較的自由に行き来することができるので、事実として知っておくのが良い。

導出1

戦略:ガンマ分布のジョイント密度関数から直接演繹する。

ガンマ分布の定義k,θ>0k, \theta > 0に対して、次のような確率密度関数を持つ連続確率分布Γ(k,θ)\Gamma ( k , \theta )をガンマ分布という。 f(x)=1Γ(k)θkxk1ex/θ,x>0 f(x) = {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} \qquad , x > 0

ベータ分布の定義α,β>0\alpha , \beta > 0に対して、次のような確率密度関数を持つ連続確率分布Beta(α,β)\text{Beta}(\alpha,\beta)をベータ分布という。 f(x)=1B(α,β)xα1(1x)β1,x[0,1] f(x) = {{ 1 } \over { B(\alpha,\beta) }} x^{\alpha - 1} (1-x)^{\beta - 1} \qquad , x \in [0,1]

X1,X2X_{1}, X_{2}は独立なので、hhのジョイント密度関数はx1,x2(0,)x_{1} , x_{2} \in (0, \infty)に対して次のようになる。 h(x1,x2)=1Γ(α1)Γ(α2)x1α11x2α21ex1x2 h(x_{1} , x_{2}) = {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} x_{1}^{\alpha_{1} -1 } x_{2}^{\alpha_{2} -1 } e^{-x_{1} - x_{2}} ここでY1:=X1+X2Y_{1} := X_{1} + X_{2}およびY2:=X1/(X1+X2)Y_{2} := X_{1} / (X_{1} + X_{2})とするとx1=y1y2x_{1} = y_{1} y_{2}でありx2=y1(1y2)x_{2} = y_{1} ( 1 - y_{2} )なので、 J=y2y11y2y1=y10 J = \begin{vmatrix} y_{2} & y_{1} \\ 1 - y_{2} & -y_{1} \end{vmatrix} = - y_{1} \ne 0 したがって、Y1,Y2Y_{1}, Y_{2}のジョイント密度関数はy1(0,),y2(0,1)y_{1} \in (0,\infty) , y_{2} \in (0,1)に対して g(y1,y2)=y11Γ(α1)Γ(α2)(y1y2)α11[y1(1y2)]α21ey1=1Γ(α1)Γ(α2)y1α1+α21ey1y2α11(1y2)α21=1Γ(α1+α2)y1α1+α21ey1Γ(α1+α2)Γ(α1)Γ(α2)y2α11(1y2)α21 \begin{align*} g(y_{1},y_{2}) =& |y_{1}| {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} (y_{1} y_{2})^{\alpha_{1} -1 } \left[ y_{1} ( 1 - y_{2} ) \right]^{\alpha_{2} -1 } e^{-y_{1}} \\ =& {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \\ =& {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \end{align*} Y1,Y2Y_{1},Y_{2}マージナル密度関数g1,g2g_{1}, g_{2}は、 g1(y1)=1Γ(α1+α2)y1α1+α21ey1g2(y2)=Γ(α1+α2)Γ(α1)Γ(α2)y2α11(1y2)α21 g_{1}(y_{1}) = {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \\ g_{2}(y_{2}) = {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} 従って、 Y1Γ(α1+α2,1)Y2beta(α1,α2) Y_{1} \sim \Gamma ( \alpha_{1} + \alpha_{2} ,1 ) \\ Y_{2} \sim \text{beta} (\alpha_{1} , \alpha_{2})


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): 164-165. ↩︎