logo

초기하 분포의 평균과 분산 📂확률분포론

초기하 분포의 평균과 분산

공식

확률변수 $X$ 가 초기하 분포를 따라서 $X \sim \operatorname{HG}(N, D, n)$ 이면 그 평균과 분산은 $p := D / N$ 에 대해 다음과 같다. $$ \begin{align*} E (X) =& n \frac{D}{N} = n p \\ \Var (X) =& n {\frac{ D }{ N }} {\frac{ N - D }{ N }} {\frac{ N - n }{ N - 1 }} = np(1 - p) \frac{N - n}{N - 1} \end{align*} $$

유도

평균 1

이항계수 뺄셈 공식: $$ \binom{m}{x} \left( {\frac{ m }{ x }} \right) = \binom{m-1}{x-1} $$

이항계수에 대해 다음이 성립한다. $$ \begin{align*} x \binom{m}{x} =& m \binom{m-1}{x-1} \\ \binom{m}{x} =& {\frac{ m }{ x }} \binom{m-1}{x-1} \end{align*} $$

초기하 분포의 정의: 자연수 $n, N, D \in \mathbb{N}$ 에 대해 다음과 같은 확률질량함수를 가지는 이산확률분포초기하 분포hypergeometric distribution라고 한다. $$ p(x) = {\frac{ \binom{D}{x} \binom{N - D}{n - x} }{ \binom{N}{n} }} \qquad , x \in 0, 1, \cdots , n $$

아래의 전개에서 변수 치환 $y := x - 1$ 을 사용할 것이다. $$ \begin{align*} E (X) =& \sum_{x=0}^{n} x p(x) \\ =& \sum_{x=0}^{n} x {\frac{ \binom{D}{x} \binom{N - D}{n - x} }{ \binom{N}{n} }} \\ =& 0 + \sum_{x=1}^{n} x {\frac{ \binom{D}{x} \binom{N - D}{n - x} }{ \binom{N}{n} }} \\ =& {\frac{ D n }{ N }} \sum_{x=1}^{n} { \frac{ \binom{D-1}{x-1} \binom{N - D}{n - x} }{ \binom{N-1}{n-1} }} \\ =& n {\frac{ D }{ N }} \sum_{y=0}^{n-1} { \frac{ \binom{D-1}{y} \binom{(N-1) - (D-1)}{(n - 1 )- y} }{ \binom{N-1}{n-1} }} \\ =& n {\frac{ D }{ N }} \cdot 1 \end{align*} $$ 마지막 팩터는 $Y \sim \operatorname{HG}(N-1, D-1, n-1)$ 의 확률질량함수의 합이므로 $1$ 이다.

분산 2

수식적으로 더 깔끔한 증명이 있기는 한데3, 개인적으로는 초기하 분포에 대한 직관을 사용하는 유도 과정이 더 재미있어서 아래의 방법을 소개한다.

$$ X = X_{1} + \cdots + X_{n} $$ 확률변수 $X$ 는 위와 같이 $0$ 아니면 $1$ 인 확률변수 $X_{k}$ 들의 합으로 나타낼 수 있다. $X_{k}$ 의 기대값은 $N$ 개의 아이템 중에서 $D$ 개의 아이템을 뽑는 확률이므로 $E \left( X_{k} \right) = D / N = p$ 다. 한편 초기하 분포에서 $n$ 개를 뽑을 땐 비복원추출을 하므로 $X_{k}$ 들은 서로 독립이 아니고, 분산을 구하기 위해서는 다음과 같이 공분산이 필요하다. $$ \begin{align*} \Var (X) =& \Var \left( X_{1} + \cdots + X_{n} \right) \\ =& \sum_{k=1}^{n} \Var \left( X_{k} \right) + \sum_{i \ne j} \Cov \left( X_{i}, X_{j} \right) \end{align*} $$

각각의 $X_{k}$ 는 $0$ 아니면 $1$ 이므로 $X_{k}^{2} = X_{k}$ 이고, $X_{k}$ 의 분산은 다음과 같다. $$ \begin{align*} \Var \left( X_{k} \right) =& E \left( X_{k}^{2} \right) - E \left( X_{k} \right)^{2} \\ =& E \left( X_{k} \right) - E \left( X_{k} \right)^{2} \\ =& p - p^{2} \\ =& {\frac{ D }{ N }} - \left( {\frac{ D }{ N }} \right)^{2} \\ =& {\frac{ ND - D^{2} }{ N^{2} }} \\ =& {\frac{ D \left( N - D \right) }{ N^{2} }} \end{align*} $$

공분산은 $\Cov \left( X_{i}, X_{j} \right) = E \left( X_{i} X_{j} \right) - E \left( X_{i} \right) E \left( X_{j} \right)$ 이므로, $X_{i}$ 와 $X_{j}$ 의 확률분포를 알아야 한다. $X_{i}$ 와 $X_{j}$ 가 $0$ 이거나 $1$ 인 경우를 따져보면 다음과 같다. $$ X_{i} X_{j} = \begin{cases} 1 & \text{if } X_{i} = 1 \land X_{j} = 1 \\ 0 & \text{otherwise} \end{cases} $$ $X_{i} X_{j} = 1$ 일 확률이라는 것은 두 개의 샘플을 뽑는 전체 경우의 수 $N \left( N - 1 \right)$ 중에서 $D \left( D - 1 \right)$ 개의 경우의 비율로써 나타나고, $X_{i} X_{j}$ 의 기대값을 얻을 수 있다. $$ \begin{align*} & P \left( X_{i} X_{j} = 1 \right) = P \left( X_{i} = X_{j} = 1 \right) = {\frac{ D \left( D - 1 \right) }{ N \left( N - 1 \right) }} \\ \implies & E \left( X_{i} X_{j} \right) = 1 \cdot P \left( X_{i} X_{j} = 1 \right) + 0 \cdot P \left( X_{i} X_{j} = 0 \right) = {\frac{ D \left( D - 1 \right) }{ N \left( N - 1 \right) }} \end{align*} $$ 이에 따라 $X_{i}$ 와 $X_{j}$ 의 공분산은 다음과 같다. $$ \begin{align*} & \Cov \left( X_{i} , X_{j} \right) \\ =& E \left( X_{i} X_{j} \right) - E \left( X_{i} \right) E \left( X_{j} \right) \\ =& {\frac{ D \left( D - 1 \right) }{ N \left( N - 1 \right) }} - \left( {\frac{ D }{ N }} \right)^{2} \\ =& {\frac{ N \left( D^{2} - D \right) - D^{2} \left( N - 1 \right) }{ N^{2} \left( N - 1 \right) }} \\ =& {\frac{ D^{2} - N D }{ N^{2} \left( N - 1 \right) }} \\ =& - {\frac{ D \left( N - D \right) }{ N^{2} \left( N - 1 \right) }} \end{align*} $$ 마지막으로 $\Var \left( X \right)$ 를 계산해보면 다음과 같다. $$ \begin{align*} & \Var \left( X \right) \\ =& \sum_{k=1}^{n} \Var \left( X_{k} \right) + \sum_{i \ne j} \Cov \left( X_{i}, X_{j} \right) \\ =& \sum_{k=1}^{n} \Var \left( X_{k} \right) + 2 \sum_{i < j} \Cov \left( X_{i}, X_{j} \right) \\ =& n \Var X + 2 \binom{n}{2} \Cov \left( X_{i}, X_{j} \right) \\ =& n {\frac{ D \left( N - D \right) }{ N^{2} }} - 2 {\frac{ n (n-1) }{ 2 }} {\frac{ D \left( N - D \right) }{ N^{2} \left( N - 1 \right) }} \\ =& {\frac{ n D \left( N - D \right) }{ N^{2} }} \left( 1 - {\frac{ n - 1 }{ N - 1 }} \right) \\ =& {\frac{ n D \left( N - D \right) }{ N^{2} }} \cdot {\frac{ N - n }{ N - 1 }} \\ =& n p \left( 1 - p \right) {\frac{ N - n }{ N - 1 }} \end{align*} $$


  1. Casella. (2001). Statistical Inference(2nd Edition): p87. ↩︎

  2. https://mathweb.ucsd.edu/~gptesler/186/slides/186_hypergeom_17-handout.pdf ↩︎

  3. heropup, Derivation of mean and variance of Hypergeometric Distribution, URL (version: 2016-02-23): https://math.stackexchange.com/q/1669384 ↩︎