logo

베타 분포 📂확률분포론

베타 분포

정의 1

pdf0 pdf1 pdf2

$\alpha , \beta > 0$ 에 대해 다음과 같은 확률 밀도 함수를 가지는 연속 확률 분포 $\text{Beta}(\alpha,\beta)$ 를 베타 분포beta distribution라고 한다. $$ f(x) = {{ 1 } \over { B(\alpha,\beta) }} x^{\alpha - 1} (1-x)^{\beta - 1} \qquad , x \in [0,1] $$


기초 성질

적률 생성 함수

  • [1]: $$m(t) = 1 + \sum_{k=1}^{\infty} \left( \prod_{r=0}^{k-1} {{ \alpha + r } \over { \alpha + \beta + r }} {{ t^{k} } \over { k! }} \right) \qquad , t \in \mathbb{R}$$

평균과 분산

  • [2]: $X \sim \text{Beta}(\alpha,\beta)$ 면 $$ \begin{align*} E(X) =& {\alpha \over {\alpha + \beta} } \\ \text{Var} (X) =& { { \alpha \beta } \over {(\alpha + \beta + 1) { ( \alpha + \beta ) }^2 } } \end{align*} $$

충분통계량

  • [3]: 베타분포를 따르는 랜덤샘플 $\mathbf{X} := \left( X_{1} , \cdots , X_{n} \right) \sim \text{Beta} \left( \alpha, \beta \right)$ 이 주어져 있다고 하자.

$\left( \alpha, \beta \right)$ 에 대한 충분통계량 $T$ 는 다음과 같다. $$ T = \left( \prod_{i} X_{i}, \prod_{i} \left( 1 - X_{i} \right) \right) $$

정리

감마 분포에서의 유도

  • [a]: 두 확률 변수 $X_{1},X_{2}$ 가 독립이고 $X_{1} \sim \Gamma ( \alpha_{1} , 1)$, $X_{2} \sim \Gamma ( \alpha_{2} , 1)$ 이라 하면 $$ {{ X_{1} } \over { X_{1} + X_{2} }} \sim \text{beta} \left( \alpha_{1} , \alpha_{2} \right) $$

F-분포에서의 유도

  • [b]: 자유도 $r_{1} , r_{2}$ 인 F-분포를 따르는 확률변수 $X \sim F \left( r_{1}, r_{2} \right)$ 에 대해 다음과 같이 정의된 $Y$ 는 베타분포 $\text{Best} \left( {{ r_{1} } \over { 2 }} , {{ r_{2} } \over { 2 }} \right)$ 를 따른다. $$ Y := {{ \left( r_{1} / r_{2} \right) X } \over { 1 + \left( r_{1} / r_{2} \right) X }} \sim \text{Beta} \left( {{ r_{1} } \over { 2 }} , {{ r_{2} } \over { 2 }} \right) $$

설명

감마 분포감마 함수에서 나왔듯 베타 분포는 베타 함수에서 이름을 따온 분포다. 베타 함수는 다음과 같이 감마 함수와의 관계를 가지고 있어서 감마 함수로 표현할 수도 있다. $$ B(p,q) = {{\Gamma (p) \Gamma (q)} \over {\Gamma (p+q) }} $$ 실제로도 감마분포는 베타분포를 유도할 수 있다.

베타 함수가 이항계수의 일반화로 볼 수 있듯, 베타 분포의 확률 밀도 함수를 잘 살펴보면 그 모양새가 이항 분포의 확률 질량 함수 $P(k) = { _n {C} _k }{ p ^ k }{ (1-p) ^ { n - k } }$와 닮았음을 알 수 있다. 정확히 베타분포의 정의와 맞아 떨어지는 건 아니지만, $\alpha$ 를 성공 횟수, $\beta$ 를 실패 횟수라고 생각하면 $$ n = \alpha + \beta \\ \displaystyle p = {{\alpha } \over {\alpha + \beta}} \\ \displaystyle q = {{\beta } \over {\alpha + \beta}} $$ 로 얼추 비슷한 느낌이 난다. 실제로 베이지안에서는 이항 분포의 켤레사전분포으로 쓰이기도 한다.

증명

[1]

식이 번잡해서 그렇지 논리적으로 어려운 부분은 없다.

지수 함수의 급수 전개: $$ { { e ^ x } }=\sum _{ n=0 }^{ \infty }{ \frac { { x } ^{ n } }{ n! } } $$

오일러 적분: $$ B(p,q)=\int_0^1 t^{p-1}(1-t)^{q-1}dt $$

$$ \begin{align*} m(t) =& \int_{0}^{1} e^{tx} {{ 1 } \over { B(\alpha,\beta) }} x^{\alpha - 1} (1-x)^{\beta - 1} dx \\ =& {{ 1 } \over { B(\alpha,\beta) }} \int_{0}^{1} \left( \sum_{k=0}^{\infty} {{ (tx)^{k} } \over { k! }} \right) x^{\alpha - 1} (1-x)^{\beta - 1} dx \\ =& {{ 1 } \over { B(\alpha,\beta) }} \sum_{k=0}^{\infty} {{ t^{k} } \over { k! }} \int_{0}^{1} x^{\alpha + k - 1} (1-x)^{\beta - 1} dx \\ =& {{ 1 } \over { B(\alpha,\beta) }} \sum_{k=0}^{\infty} {{ t^{k} } \over { k! }} B \left( \alpha + k , \beta \right) \\ =& \sum_{k=0}^{\infty} {{ t^{k} } \over { k! }} {{ B \left( \alpha + k , \beta \right) } \over { B(\alpha,\beta) }} \\ =& {{ t^{0} } \over { 0! }} {{ B \left( \alpha + 0 , \beta \right) } \over { B(\alpha,\beta) }} + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} {{ B \left( \alpha + k , \beta \right) } \over { B(\alpha,\beta) }} \end{align*} $$

베타 함수와 감마 함수의 관계: $$B(p,q) = {{\Gamma (p) \Gamma (q)} \over {\Gamma (p+q) }}$$

베타함수를 감마함수로 풀어내보면

$$ \begin{align*} m(t) =& 1 + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} {{ B \left( \alpha + k , \beta \right) } \over { B(\alpha,\beta) }} \\ =& 1 + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} {{ \Gamma ( \alpha + k ) \Gamma ( \beta ) } \over { \Gamma \left( \alpha + \beta + k \right) }} {{ \Gamma ( \alpha + \beta ) } \over { \Gamma \left( \alpha \right) \Gamma \left( \beta \right) }} \\ =& 1 + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} {{ \Gamma ( \alpha + k ) } \over { \Gamma \left( \alpha + \beta + k \right) }} {{ \Gamma ( \alpha + \beta ) } \over { \Gamma \left( \alpha \right) }} \\ =& 1 + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} {{ \Gamma ( \alpha + k ) } \over { \Gamma \left( \alpha \right) }} {{ \Gamma ( \alpha + \beta ) } \over { \Gamma \left( \alpha + \beta + k \right) }} \\ =& 1 + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} {{ \Gamma ( \alpha ) \prod_{r=0}^{k-1} ( \alpha + r) } \over { \Gamma \left( \alpha \right) }} {{ \Gamma ( \alpha + \beta ) } \over { \Gamma \left( \alpha + \beta \right) \prod_{r=0}^{k-1} ( \alpha + \beta + r) }} \\ =& 1 + \sum_{k=1}^{\infty} {{ t^{k} } \over { k! }} \prod_{r=0}^{k-1} {{ \alpha + r } \over { \alpha + \beta + r }} \end{align*} $$

[2]

직접연역한다.

[3]

$(1 - x)$ 때문에 뭔가 찝찝하겠지만 그냥 직접연역한다.

[a]

확률밀도함수로 직접연역한다.

[b]

확률밀도함수로 직접연역한다.

코드

다음은 베타분포의 확률밀도함수를 움짤로 보여주는 줄리아 코드다.

@time using LaTeXStrings
@time using Distributions
@time using Plots

cd(@__DIR__)

x = 0:0.01:1
B = collect(0.1:0.1:10.0); append!(B, reverse(B))

animation = @animate for β ∈ B
    plot(x, pdf.(Beta(0.5, β), x),
     color = :black,
     label = "α = 0.5, β = $(rpad(β, 3, '0'))", size = (400,300))
    xlims!(0,1); ylims!(0,5); title!(L"\mathrm{pmf\,of\,Beta} (0.5, \beta)")
end
gif(animation, "pdf0.gif")

animation = @animate for β ∈ B
    plot(x, pdf.(Beta(1, β), x),
     color = :black,
     label = "α = 1, β = $(rpad(β, 3, '0'))", size = (400,300))
    xlims!(0,1); ylims!(0,5); title!(L"\mathrm{pmf\,of\,Beta} (1, \beta)")
end
gif(animation, "pdf1.gif")

animation = @animate for β ∈ B
    plot(x, pdf.(Beta(2, β), x),
     color = :black,
     label = "α = 2, β = $(rpad(β, 3, '0'))", size = (400,300))
    xlims!(0,1); ylims!(0,5); title!(L"\mathrm{pmf\,of\,Beta} (2, \beta)")
end
gif(animation, "pdf2.gif")

  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p165. ↩︎