logo

함수를 취한 확률변수꼴 합의 기대값 📂수리통계학

함수를 취한 확률변수꼴 합의 기대값

정리 1

X1,,XnX_{1} , \cdots , X_{n}랜덤 샘플이고, Eg(X1)E g \left( X_{1} \right)Varg(X1)\operatorname{Var} g \left( X_{1} \right) 가 존재하게끔 하는 함수 g:RRg : \mathbb{R} \to \mathbb{R} 가 주어져 있다고 하자. 그러면 다음이 성립한다.

  • [1] 평균: E(k=1ng(Xk))=nEg(X1) E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n E g \left( X_{1} \right)
  • [2] 분산: Var(k=1ng(Xk))=nVarg(X1) \operatorname{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n \operatorname{Var} g \left( X_{1} \right)

설명

이 정리에서 눈여겨보아야 할 부분은 {Xk}k=1n\left\{ X_{k} \right\}_{k=1}^{n}랜덤샘플, 다시 말해 iid라는 것이다. 가령 iji \ne j 일 때 Xi=XjX_{i} = X_{j} 이고 g(x)=xg (x) = x 라면 분산의 성질에서 잘 알고 있듯 Var(k=1nXk)=Var(nXk)=n2VarXk \operatorname{Var} \left( \sum_{k=1}^{n} X_{k} \right) = \operatorname{Var} \left( n X_{k} \right) = n^{2} \operatorname{Var} X_{k} 이다. 다시 말해 정리 [2]를 유도하기 위해 독립이라는 조건이 반드시 필요한 것이다.

증명

[1]

기대값은 선형성을 가지며, X1,,XnX_{1} , \cdots , X_{n} 가 같은 분포를 따르므로 다음이 성립한다. E(k=1ng(Xk))=k=1nEg(Xk)lineartiy=nEg(X1)identical distributed \begin{align*} & E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& \sum_{k=1}^{n} E g \left( X_{k} \right) & \because \text{lineartiy} \\ =& n E g \left( X_{1} \right) & \because \text{identical distributed} \end{align*}

[2]

X1,,XnX_{1} , \cdots , X_{n} 가 독립이므로 iji \ne j 이면 Cov(g(Xi),g(Xj))=0\operatorname{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) = 0 이다. 따라서 Var(k=1ng(Xk))=E[k=1ng(Xk)Ek=1ng(Xk)]2=E[k=1n[g(Xk)Eg(Xk)]]2=k=1nE[g(Xk)Eg(Xk)]2+ijE[g(Xi)Eg(Xi)g(Xj)Eg(Xj)]=k=1nVarg(Xk)+ijCov(g(Xi),g(Xj))=nVarg(X1)+0 \begin{align*} & \operatorname{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& E \left[ \sum_{k=1}^{n} g \left( X_{k} \right) - E \sum_{k=1}^{n} g \left( X_{k} \right) \right]^{2} \\ =& E \left[ \sum_{k=1}^{n} \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right] \right]^{2} \\ =& \sum_{k=1}^{n} E \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right]^{2} + \sum_{i \ne j} E \left[ g \left( X_{i} \right) - E g \left( X_{i} \right) g \left( X_{j} \right) - E g \left( X_{j} \right) \right] \\ =& \sum_{k=1}^{n} \operatorname{Var} g \left( X_{k} \right) + \sum_{i \ne j} \operatorname{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) \\ =& n \operatorname{Var} g \left( X_{1} \right) + 0 \end{align*} 이 성립한다.


  1. Casella. (2001). Statistical Inference(2nd Edition): p213. ↩︎