특정한 분포를 따르는 확률변수들의 덧셈 총정리
정리
확률 변수 $X_{1} , \cdots , X_{n}$ 들이 상호 독립이라고 하자.
- [1] 이항 분포: $X_i \sim \text{Bin} ( n_{i}, p)$ 이면 $$ \sum_{i=1}^{m} X_{i} \sim \text{Bin} \left( \sum_{i=1}^{m} n_{i} , p \right) $$
- [2] 푸아송 분포: $X_i \sim \text{Poi}( m_{i} )$ 이면 $$ \sum_{i=1}^{n} X_{i} \sim \text{Poi} \left( \sum_{i=1}^{n} m_{i} \right) $$
- [3] 감마 분포: $X_i \sim \Gamma ( k_{i}, \theta)$ 이면 $$ \sum_{i=1}^{n} X_{i} \sim \Gamma \left( \sum_{i=1}^{n} k_{i} , \theta \right) $$
- [4] 카이제곱 분포: $X_i \sim \chi^2 ( r_{i} )$ 이면 $$ \sum_{i=1}^{n} X_{i} \sim \chi ^2 \left( \sum_{i=1}^{n} r_{i} \right) $$
- [5] 정규 분포: $X_i \sim N( \mu_{i}, \sigma_{i}^{2} )$ 이면 주어진 벡터 $(a_{1} , \cdots , a_{n}) \in \mathbb{R}^{n}$ 에 대해 $$ \sum_{i=1}^{n} a_{i} X_{i} \sim N \left( \sum_{i=1}^{n} a_{i } \mu_{i} , \sum_{i=1}^{n} a_{i }^2 \sigma_{i}^2 \right) $$
증명
전략: 적률 생성 함수로 유도한다. 확률변수들이 상호 독립이라는 조건은 다음의 정리를 쓰기 위해 필수적이다.
$X_{1} , \cdots , X_{n}$ 가 상호 독립이고 각각의 적률 생성 함수가 $M_{i}(t) \qquad , -h_{i} < t < h_{i}$ 이면 그 선형 결합 $\displaystyle T := \sum_{i=1}^{n} a_{i} X_{i}$ 의 적률 생성 함수 $M_{T}$ 는 $$ M_{T} (t) = \prod_{i=1}^{n} M_{i} \left( a_{i} t \right) \qquad , -\text{min}_{i=1, \cdots, n}^{n} h_{i} < t < \text{min}_{i=1, \cdots, n} h_{i} $$
[1]1
이항 분포의 적률 생성 함수: $$ m(t) = \left[ (1-p) + pe^{t} \right]^{n} \qquad , t \in \mathbb{R} $$
$\displaystyle Y := \sum_{i=1}^{m} X_{i}$ 라고 두면 $X_{1} , \cdots , X_{m}$ 이 상호 독립이므로 $$ \begin{align*} M_{Y} (t) =& M_{1} (t) \cdots M_{m} (t) \\ =& \left[ (1-p) + pe^{t} \right]^{n_{1}} \cdots \left[ (1-p) + pe^{t} \right]^{n_{m}} \\ =& \left[ (1-p) + pe^{t} \right]^{\sum_{i=1}^{m} n_{i}} \end{align*} $$ 따라서 $$ Y \sim \text{Bin} \left( \sum_{i=1}^{m} n_{i} , p \right) $$
■
[2]2
푸아송 분포의 적률 생성 함수: $$ m(t) = \exp \left[ \lambda \left( e^{t} - 1 \right) \right] \qquad , t \in \mathbb{R} $$
$\displaystyle Y := \sum_{i=1}^{n} X_{i}$ 라고 두면 $X_{1} , \cdots , X_{n}$ 이 상호 독립이므로 $$ \begin{align*} M_{Y} (t) =& M_{1} (t) \cdots M_{n} (t) \\ =& \exp \left[ m_{1} \left( e^{t} - 1 \right) \right] \cdots \exp \left[ m_{n} \left( e^{t} - 1 \right) \right] \\ =& \exp \left[ \sum_{i=1}^{n} m_{i} \left( e^{t} - 1 \right) \right] \end{align*} $$ 따라서 $$ Y \sim \text{Poi} \left( \sum_{i=1}^{m} m_{i} \right) $$
■
[3]3
감마 분포의 적률 생성 함수: $$ m(t) = \left( 1 - \theta t\right)^{-k} \qquad , t < {{ 1 } \over { \theta }} $$
$\displaystyle Y := \sum_{i=1}^{n} X_{i}$ 라고 두면 $X_{1} , \cdots , X_{n}$ 이 상호 독립이므로 $$ \begin{align*} M_{Y} (t) =& M_{1} (t) \cdots M_{n} (t) \\ =& \left( 1 - \theta t\right)^{-k_{1}} \cdots \left( 1 - \theta t\right)^{-k_{n}} \\ =& \left( 1 - \theta t\right)^{-\sum_{i=1}^{n} k_{i}} \end{align*} $$ 따라서 $$ Y \sim \Gamma \left( \sum_{i=1}^{n} k_{i} , \theta \right) $$
■
[4]4
감마 분포와 카이제곱 분포의 관계: $$ \Gamma \left( { r \over 2 } , 2 \right) \iff \chi ^2 (r) $$
$\displaystyle Y := \sum_{i=1}^{n} X_{i}$ 이고 $\displaystyle \sum_{i=1}^{n} k_{i} := {{ r_{i} } \over { 2 }}$ 그리고 $\theta := 2$ 라 두면 정리 [3] 에 따라 $$ Y \sim \Gamma \left( \sum_{i=1}^{n} {{ r_{i} } \over { 2 }} , 2 \right) $$
■
[5]5
정규 분포의 적률 생성 함수: $$ m(t) = \exp \left( \mu t + {{ \sigma^{2} t^{2} } \over { 2 }} \right) \qquad , t \in \mathbb{R} $$
$\displaystyle Y := \sum_{i=1}^{n} a_{i} X_{i}$ 라고 두면 $X_{1} , \cdots , X_{n}$ 이 상호 독립이므로 $$ \begin{align*} M_{Y} =& M_{1} (t) \cdots M_{n} (t) \\ =& \prod_{i=1}^{n} \exp \left[ t a_{i} \mu_{i} + {{ t^{2} a_{i}^{2} \sigma_{i}^{2} } \over { 2 }} \right] \\ =& \exp \left[ t \sum_{i=1}^{n} a_{i} \mu_{i} + {{ t^{2} \sum_{i=1}^{n} a_{i}^{2} \sigma_{i}^{2} } \over { 2 }} \right] \end{align*} $$ 따라서 $$ Y \sim N \left( \sum_{i=1}^{n} a_{i } \mu_{i} , \sum_{i=1}^{n} a_{i }^2 \sigma_{i}^2 \right) $$
■
주의사항
주의해야할 것은 사실 확률변수의 덧셈이라는 단어가 없다는 것이다. 정확하게는 확률 변수의 선형결합 중에서도 특수한 경우를 이른다. 당연하지만 iid라는 더 강한 조건이 주어지면 더욱 쉽게 그 분포를 쉽게 구할 수 있다.
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p145. ↩︎
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p155. ↩︎
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p163. ↩︎
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p163. ↩︎
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p176. ↩︎