logo

불편추정량 📂수리통계학

불편추정량

정의 1

θ\theta추정량 TT 가 다음을 만족하면 TTθ\theta불편추정량unbiased estimator이라고 한다. ET=θ E T = \theta

설명

특히 θ\theta 에 대한 불편추정량 중 가장 분산이 작은 경우 최소분산불편추정량mimimum Variance Unbiased Estimator, MVUE이라고 한다.

불편성이란 편의를 가지지 않는 성질을 말한다. 가령 Xi(μ,σ2)X_{i} \sim \left( \mu , \sigma^{2} \right) 라고 할 때 μ\mu 의 추정량으로써 표본평균 X=1niXi\displaystyle \overline{X} = {{ 1 } \over { n }} \sum_{i} X_{i} 를 사용한다면 EX=μ\displaystyle E \overline{X} = \mu 이므로 X\overline{X}μ\mu 의 불편추정량이 된다. 이는 언뜻 당연해보이지만 추정량이 모수를 정확하게 찍어준다는 것은 굉장히 중요한 성질인 동시에 당연한 일도 아니다. 예로써 분산과 표본분산을 살펴보자.

예시

Xi(μ,σ2) X_{i} \sim \left( \mu , \sigma^{2} \right) 이라고 하면 분산의 불편추정량은 다음과 같다. S2:=1n1i=1n(XiX)2 S^{2} := {{1} \over {n-1}} \sum_{i=1}^{n} \left( X_{i} - \overline{X} \right)^{2} 알다시피 표본 평균과 달리 표본 분산은 편차의 제곱을 모두 더한 후 nn 이 아니라 n1n-1 으로 나누어준다. 표본 분산을 구할 때 n1n-1 으로 나누는 이유는 질문한 사람의 수준에 따라 나름의 납득이 가게끔 다른 설명을 해줄 수 있지만, 가장 정확한 수식으로 설명하자면 ‘표본 분산이 불편추정량이 되기 위해서’다.

증명 2

μ:=EXσ2:=EXi2μ2 \mu := E \overline{X} \\ \sigma^{2} := E X_{i} ^{2} - \mu^{2} 이라고 하면 E(X2)μ2=E(X2)(EX)2=VarX=Var(1ni=1nXi)=1n2i=1nVarXi=1n2nσ2=σ2n \begin{align*} E \left( \overline{X}^{2} \right) - \mu^{2} =& E \left( \overline{X}^{2} \right) - \left( E \overline{X} \right)^{2} \\ =& \operatorname{Var} \overline{X} \\ =& \operatorname{Var} \left( {{1} \over {n}} \sum_{i=1}^{n} X_{i} \right) \\ =& {{1} \over {n^{2}}} \sum_{i=1}^{n} \operatorname{Var} X_{i} \\ =& {{1} \over {n^{2}}} n \sigma^{2} \\ =& {{\sigma^{2}} \over {n}} \end{align*} 이므로 표본분산 S2S^{2} 의 기대값은 ES2=(n1)1Ei=1n(XiX)2=(n1)1[i=1nEXi2i=1nEX2]=(n1)1[i=1n(σ2+μ2)n(μ2+σ2n)]=(n1)1[nσ2+nμ2nμ2σ2]=(n1)1(n1)σ2=σ2 \begin{align*} E S^{2} =& (n-1)^{-1} E \sum_{i=1}^{n} \left( X_{i} - \overline{X} \right)^{2} \\ =& (n-1)^{-1} \left[ \sum_{i=1}^{n} E X_{i}^{2} - \sum_{i=1}^{n} E \overline{X} ^{2} \right] \\ =& (n-1)^{-1} \left[ \sum_{i=1}^{n} \left( \sigma^{2} + \mu^{2} \right) - n \left( \mu^{2} + {{\sigma^{2}} \over {n}} \right) \right] \\ =& (n-1)^{-1} \left[ n\sigma^{2} + n \mu^{2} - n \mu^{2} - \sigma^{2} \right] \\ =& (n-1)^{-1} (n-1) \sigma^{2} \\ =& \sigma^{2} \end{align*}


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p208. ↩︎

  2. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p137. ↩︎