감마 분포
정의 1
$k, \theta > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $\Gamma ( k , \theta )$ 를 감마 분포gamma distribution라고 한다. $$ f(x) = {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} \qquad , x > 0 $$
- $\Gamma$ 는 감마 함수를 나타낸다.
- 감마 분포의 확률 밀도 함수는 $\alpha , \beta > 0$ 에 대해 다음과 같이 정의되기도 한다. 본질적으로는 $\theta = {{ 1 } \over { \beta }}$ 냐의 차이 뿐이다. $$ f(x) = {{ \beta^{\alpha } } \over { \Gamma ( \alpha ) }} x^{\alpha - 1} e^{ - \beta x} \qquad , x > 0 $$
기초 성질
적률 생성 함수
- [1]: $$m(t) = \left( 1 - \theta t\right)^{-k} \qquad , t < {{ 1 } \over { \theta }}$$
평균과 분산
- [2]: $X \sim \Gamma ( \alpha , \beta )$ 면 $$ \begin{align*} E(X) =& k \theta \\ \operatorname{Var} (X) =& k \theta^{2} \end{align*} $$
충분통계량
- [3]: 감마분포를 따르는 랜덤샘플 $\mathbf{X} := \left( X_{1} , \cdots , X_{n} \right) \sim \Gamma \left( k, \theta \right)$ 이 주어져 있다고 하자.
$\left( k, \theta \right)$ 에 대한 충분통계량 $T$ 는 다음과 같다. $$ T = \left( \prod_{i} X_{i}, \sum_{i} X_{i} \right) $$
정리
스케일링
- [a]: $X \sim \Gamma ( k , \theta )$ 면 스칼라 $c > 0$ 에 대해 $c X \sim \Gamma ( k , c \theta )$
푸아송 분포와의 관계
- [b]: 모든 자연수 $k$ 에 대해 $$ \int_{\mu}^{\infty} { { z^{k-1} e^{-z} } \over { \Gamma (k) } } dz = \sum_{x=0}^{k-1} { { {\mu}^{x} e^{-\mu} } \over {x!} } $$
지수 분포와의 관계
- [c]: $$\Gamma \left(1, { 1 \over \lambda } \right) \iff \text{exp} (\lambda)$$
카이제곱 분포와의 관계
- [d]: $$\Gamma \left( { r \over 2 } , 2 \right) \iff \chi ^2 (r)$$
베타 분포 유도
- [e]: 두 확률 변수 $X_{1},X_{2}$ 가 독립이고 $X_{1} \sim \Gamma ( \alpha_{1} , 1)$, $X_{2} \sim \Gamma ( \alpha_{2} , 1)$ 이라 하면 $$ {{ X_{1} } \over { X_{1} + X_{2} }} \sim \text{beta} \left( \alpha_{1} , \alpha_{2} \right) $$
설명
감마 분포는 감마 함수에서 이름을 따온 함수로써, 확률 밀도 함수의 정적분이 $1$ 이 된다는 것 자체가 오일러 적분에서 나온 것이다. 그 자체가 어떤 직관적인 의미를 가진다기보다는 통계학적으로 유용한 성질이 많아 인공적으로 유도된 분포다. 이런 분포들을 샘플링 분포sampling distribution라고 부르기도 하는데, 감마 분포는 특유의 모양 덕에 여러가지 분포로 모습을 바꾸며, 편리한 성질들을 많이 제공해준다.
베이지안
베이지안에서는 푸아송 분포의 켤레사전분포로 쓰이기도 한다.
증명
[1]
$\displaystyle t < {{ 1 } \over { \theta }}$ 일 때 $\displaystyle y := x {{ ( 1 - \theta t ) } \over { \theta }}$ 라고 두면 $\displaystyle dy = {{ ( 1 - \theta t ) } \over { \theta }} dx$ 이므로 $$ \begin{align*} m(t) =& \int_{0}^{\infty} e^{tx} {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} dx \\ =& \int_{0}^{\infty} {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ x (t - 1 / \theta) } dx \\ =& \int_{0}^{\infty} {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x {{( 1 - \theta t)} \over {\theta}} } dx \\ =& \int_{0}^{\infty} {{ 1 } \over { \Gamma ( k ) \theta^{k} }} \left( {{ y \theta } \over { 1 - \theta t }} \right)^{k - 1} e^{ - y } {{ \theta } \over { 1 - \theta t }}dy \\ =& \left( {{ 1 } \over { 1 - \theta t }} \right)^{k } \int_{0}^{\infty} {{ \theta^{k} } \over { \Gamma ( k ) \theta^{k} }} y^{k-1} e^{ - y } dy \end{align*} $$ 오일러 적분에 따라 $\displaystyle \int_{0}^{\infty} {{ 1 } \over { \Gamma ( k ) }} y^{k-1} e^{ - y } dy = 1$ 이므로 $$ m(t) = \left( 1 - \theta t\right)^{-k} \qquad , t < {{ 1 } \over { \theta }} $$
■
[2]
■
[3]
[a]
$X \sim \Gamma ( k , \theta )$ 와 $c >0$ 에 대해 $Y = c X$ 라고 하면 $$ \begin{align*} m_{X}(t) =& \int_{0}^{\infty} e^{tx} {{ 1 } \over { \Gamma ( k ) \theta^{k} }} x^{k - 1} e^{ - x / \theta} dx \\ =& \int_{0}^{\infty} e^{tx} {{ c^{k} } \over { \Gamma ( k ) (c\theta)^{k} }} x^{k - 1} e^{ - cx / c\theta} dx \\ =& \int_{0}^{\infty} e^{{{ t } \over { c }} cx} {{ 1 } \over { \Gamma ( k ) (c\theta)^{k} }} (cx)^{k - 1} e^{ - cx / c\theta} c dx \\ =& \int_{0}^{\infty} e^{{{ t } \over { c }} y} {{ 1 } \over { \Gamma ( k ) (c\theta)^{k} }} y^{k - 1} e^{ - y / c\theta} dy \end{align*} $$ [1] 적률 생성 함수에 따라 $$ \begin{align*} m_{Y}(t) =& E \left( e^{tY} \right) \\ =& E \left( e^{tcX} \right) \\ =& \int_{0}^{\infty} e^{{{ tc } \over { c }} y} {{ 1 } \over { \Gamma ( k ) (c\theta)^{k} }} y^{k - 1} e^{ - y / c\theta} dy \\ =& \int_{0}^{\infty} e^{tz} {{ 1 } \over { \Gamma ( k ) (c\theta)^{k} }} z^{k - 1} e^{ - z / c\theta} dz \\ =& (1 - c \theta)^{-k} \end{align*} $$ 따라서 $Y \sim \Gamma ( k , c \theta)$ 이다.
■
[b]
■
[c]
■
[d]
■
코드
다음은 감마분포의 확률밀도함수를 움짤로 보여주는 줄리아 코드다.
@time using LaTeXStrings
@time using Distributions
@time using Plots
cd(@__DIR__)
x = 0:0.1:20
Θ = collect(0.1:0.1:10.0); append!(Θ, reverse(Θ))
animation = @animate for θ ∈ Θ
plot(x, pdf.(Gamma(1, θ), x),
color = :black,
label = "r = 1, θ = $(rpad(θ, 4, '0'))", size = (400,300))
xlims!(0,20); ylims!(0,0.5); title!(L"\mathrm{pmf\,of\,} \Gamma (1, \theta)")
end
gif(animation, "pdf1.gif")
animation = @animate for θ ∈ Θ
plot(x, pdf.(Gamma(2, θ), x),
color = :black,
label = "r = 2, θ = $(rpad(θ, 4, '0'))", size = (400,300))
xlims!(0,20); ylims!(0,0.5); title!(L"\mathrm{pmf\,of\,} \Gamma (2, \theta)")
end
gif(animation, "pdf2.gif")
animation = @animate for θ ∈ Θ
plot(x, pdf.(Gamma(4, θ), x),
color = :black,
label = "r = 4, θ = $(rpad(θ, 4, '0'))", size = (400,300))
xlims!(0,20); ylims!(0,0.5); title!(L"\mathrm{pmf\,of\,} \Gamma (4, \theta)")
end
gif(animation, "pdf4.gif")
Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p158. ↩︎