logo

特定の分布に従う確率変数の加算の総括 📂数理統計学

特定の分布に従う確率変数の加算の総括

定理

確率変数$X_{1} , \cdots , X_{n}$が相互に独立してるとしよう。

  • [1] 二項分布: $X_i \sim \text{Bin} ( n_{i}, p)$ならば $$ \sum_{i=1}^{m} X_{i} \sim \text{Bin} \left( \sum_{i=1}^{m} n_{i} , p \right) $$
  • [2] ポアソン分布: $X_i \sim \text{Poi}( m_{i} )$ならば $$ \sum_{i=1}^{n} X_{i} \sim \text{Poi} \left( \sum_{i=1}^{n} m_{i} \right) $$
  • [3] ガンマ分布: $X_i \sim \Gamma ( k_{i}, \theta)$ならば $$ \sum_{i=1}^{n} X_{i} \sim \Gamma \left( \sum_{i=1}^{n} k_{i} , \theta \right) $$
  • [4] カイ二乗分布: $X_i \sim \chi^2 ( r_{i} )$ならば $$ \sum_{i=1}^{n} X_{i} \sim \chi ^2 \left( \sum_{i=1}^{n} r_{i} \right) $$
  • [5] 正規分布: $X_i \sim N( \mu_{i}, \sigma_{i}^{2} )$ならば、与えられたベクトル$(a_{1} , \cdots , a_{n}) \in \mathbb{R}^{n}$に対して $$ \sum_{i=1}^{n} a_{i} X_{i} \sim N \left( \sum_{i=1}^{n} a_{i } \mu_{i} , \sum_{i=1}^{n} a_{i }^2 \sigma_{i}^2 \right) $$

証明

戦略:積率生成関数を使用して導く。変数が相互に独立している条件は、以下の定理を適用するために必須である。

$X_{1} , \cdots , X_{n}$が相互に独立しており、それぞれの積率生成関数が$M_{i}(t) \qquad , -h_{i} < t < h_{i}$である場合、その線形組み合わせ$\displaystyle T := \sum_{i=1}^{n} a_{i} X_{i}$の積率生成関数は $$ M_{T} (t) = \prod_{i=1}^{n} M_{i} \left( a_{i} t \right) \qquad , -\text{min}_{i=1, \cdots, n}^{n} h_{i} < t < \text{min}_{i=1, \cdots, n} h_{i} $$

[1]1

二項分布の積率生成関数: $$ m(t) = \left[ (1-p) + pe^{t} \right]^{n} \qquad , t \in \mathbb{R} $$

$\displaystyle Y := \sum_{i=1}^{m} X_{i}$と置くと、$X_{1} , \cdots , X_{m}$が相互に独立なので $$ \begin{align*} M_{Y} (t) =& M_{1} (t) \cdots M_{m} (t) \\ =& \left[ (1-p) + pe^{t} \right]^{n_{1}} \cdots \left[ (1-p) + pe^{t} \right]^{n_{m}} \\ =& \left[ (1-p) + pe^{t} \right]^{\sum_{i=1}^{m} n_{i}} \end{align*} $$ したがって $$ Y \sim \text{Bin} \left( \sum_{i=1}^{m} n_{i} , p \right) $$

[2]2

ポアソン分布の積率生成関数: $$ m(t) = \exp \left[ \lambda \left( e^{t} - 1 \right) \right] \qquad , t \in \mathbb{R} $$

$\displaystyle Y := \sum_{i=1}^{n} X_{i}$と置くと、$X_{1} , \cdots , X_{n}$が相互に独立なので $$ \begin{align*} M_{Y} (t) =& M_{1} (t) \cdots M_{n} (t) \\ =& \exp \left[ m_{1} \left( e^{t} - 1 \right) \right] \cdots \exp \left[ m_{n} \left( e^{t} - 1 \right) \right] \\ =& \exp \left[ \sum_{i=1}^{n} m_{i} \left( e^{t} - 1 \right) \right] \end{align*} $$ したがって $$ Y \sim \text{Poi} \left( \sum_{i=1}^{m} m_{i} \right) $$

[3]3

ガンマ分布の積率生成関数: $$ m(t) = \left( 1 - \theta t\right)^{-k} \qquad , t < {{ 1 } \over { \theta }} $$

$\displaystyle Y := \sum_{i=1}^{n} X_{i}$と置くと、$X_{1} , \cdots , X_{n}$が相互に独立なので $$ \begin{align*} M_{Y} (t) =& M_{1} (t) \cdots M_{n} (t) \\ =& \left( 1 - \theta t\right)^{-k_{1}} \cdots \left( 1 - \theta t\right)^{-k_{n}} \\ =& \left( 1 - \theta t\right)^{-\sum_{i=1}^{n} k_{i}} \end{align*} $$ したがって $$ Y \sim \Gamma \left( \sum_{i=1}^{n} k_{i} , \theta \right) $$

[4]4

ガンマ分布とカイ二乗分布の関係: $$ \Gamma \left( { r \over 2 } , 2 \right) \iff \chi ^2 (r) $$

$\displaystyle Y := \sum_{i=1}^{n} X_{i}$で、$\displaystyle \sum_{i=1}^{n} k_{i} := {{ r_{i} } \over { 2 }}$と$\theta := 2$と置くと、定理[3]に従って $$ Y \sim \Gamma \left( \sum_{i=1}^{n} {{ r_{i} } \over { 2 }} , 2 \right) $$

[5]5

正規分布の積率生成関数: $$ m(t) = \exp \left( \mu t + {{ \sigma^{2} t^{2} } \over { 2 }} \right) \qquad , t \in \mathbb{R} $$

$\displaystyle Y := \sum_{i=1}^{n} a_{i} X_{i}$と置くと、$X_{1} , \cdots , X_{n}$が相互に独立なので $$ \begin{align*} M_{Y} =& M_{1} (t) \cdots M_{n} (t) \\ =& \prod_{i=1}^{n} \exp \left[ t a_{i} \mu_{i} + {{ t^{2} a_{i}^{2} \sigma_{i}^{2} } \over { 2 }} \right] \\ =& \exp \left[ t \sum_{i=1}^{n} a_{i} \mu_{i} + {{ t^{2} \sum_{i=1}^{n} a_{i}^{2} \sigma_{i}^{2} } \over { 2 }} \right] \end{align*} $$ したがって $$ Y \sim N \left( \sum_{i=1}^{n} a_{i } \mu_{i} , \sum_{i=1}^{n} a_{i }^2 \sigma_{i}^2 \right) $$

注意点

確率変数の加算という言葉が実際には存在しないことに注意が必要だ。正確には、確率変数の線形結合の中でも特殊なケースを指す。当然ながら、iidのようなより強い条件が与えられた場合、その分布をより簡単に見つけることができる。


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p145. ↩︎

  2. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p155. ↩︎

  3. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p163. ↩︎

  4. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p163. ↩︎

  5. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p176. ↩︎