logo

二つの独立したガンマ分布からのベータ分布の導出 📂確率分布論

二つの独立したガンマ分布からのベータ分布の導出

定理

二つの確率変数$X_{1},X_{2}$が独立であり、$X_{1} \sim \Gamma ( \alpha_{1} , 1)$、$X_{2} \sim \Gamma ( \alpha_{2} , 1)$とするならば、 $$ {{ X_{1} } \over { X_{1} + X_{2} }} \sim \text{beta} \left( \alpha_{1} , \alpha_{2} \right) $$

説明

二つのデータがガンマ分布に従い、独立していれば、その合計の比率を確率分布論を使って説明できるかもしれない。特にガンマ分布は、様々な確率分布間を比較的自由に行き来することができるので、事実として知っておくのが良い。

導出1

戦略:ガンマ分布のジョイント密度関数から直接演繹する。

ガンマ分布の定義:$k, \theta > 0$に対して、次のような確率密度関数を持つ連続確率分布$\Gamma ( k , \theta )$をガンマ分布という。 $$ f(x) = {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} \qquad , x > 0 $$

ベータ分布の定義:$\alpha , \beta > 0$に対して、次のような確率密度関数を持つ連続確率分布$\text{Beta}(\alpha,\beta)$をベータ分布という。 $$ f(x) = {{ 1 } \over { B(\alpha,\beta) }} x^{\alpha - 1} (1-x)^{\beta - 1} \qquad , x \in [0,1] $$

$X_{1}, X_{2}$は独立なので、$h$のジョイント密度関数は$x_{1} , x_{2} \in (0, \infty)$に対して次のようになる。 $$ h(x_{1} , x_{2}) = {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} x_{1}^{\alpha_{1} -1 } x_{2}^{\alpha_{2} -1 } e^{-x_{1} - x_{2}} $$ ここで$Y_{1} := X_{1} + X_{2}$および$Y_{2} := X_{1} / (X_{1} + X_{2})$とすると$x_{1} = y_{1} y_{2}$であり$x_{2} = y_{1} ( 1 - y_{2} )$なので、 $$ J = \begin{vmatrix} y_{2} & y_{1} \\ 1 - y_{2} & -y_{1} \end{vmatrix} = - y_{1} \ne 0 $$ したがって、$Y_{1}, Y_{2}$のジョイント密度関数は$y_{1} \in (0,\infty) , y_{2} \in (0,1)$に対して $$ \begin{align*} g(y_{1},y_{2}) =& |y_{1}| {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} (y_{1} y_{2})^{\alpha_{1} -1 } \left[ y_{1} ( 1 - y_{2} ) \right]^{\alpha_{2} -1 } e^{-y_{1}} \\ =& {{ 1 } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \\ =& {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \cdot {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} \end{align*} $$ $Y_{1},Y_{2}$のマージナル密度関数$g_{1}, g_{2}$は、 $$ g_{1}(y_{1}) = {{ 1 } \over { \Gamma ( \alpha_{1} + \alpha_{2}) }} y_{1}^{\alpha_{1} + \alpha_{2} - 1} e^{-y_{1}} \\ g_{2}(y_{2}) = {{ \Gamma ( \alpha_{1} + \alpha_{2}) } \over { \Gamma (\alpha_{1}) \Gamma (\alpha_{2}) }} y_{2}^{\alpha_{1} - 1} (1-y_{2})^{\alpha_{2} - 1} $$ 従って、 $$ Y_{1} \sim \Gamma ( \alpha_{1} + \alpha_{2} ,1 ) \\ Y_{2} \sim \text{beta} (\alpha_{1} , \alpha_{2}) $$


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): 164-165. ↩︎