logo

関数形の確率変数の和の期待値 📂数理統計学

関数形の確率変数の和の期待値

定理 1

X1,,XnX_{1} , \cdots , X_{n}ランダムサンプルであり、Eg(X1)E g \left( X_{1} \right)Varg(X1)\operatorname{Var} g \left( X_{1} \right)が存在してg:RRg : \mathbb{R} \to \mathbb{R}が与えられているとする。すると、次が成立する。

  • [1] 平均E(k=1ng(Xk))=nEg(X1) E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n E g \left( X_{1} \right)
  • [2] 分散Var(k=1ng(Xk))=nVarg(X1) \operatorname{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n \operatorname{Var} g \left( X_{1} \right)

説明

この定理で注目すべき点は、{Xk}k=1n\left\{ X_{k} \right\}_{k=1}^{n}ランダムサンプル、つまりiidであることである。例えば、iji \ne jの時、Xi=XjX_{i} = X_{j}であり、g(x)=xg (x) = xならば、分散の性質でよく知られているように Var(k=1nXk)=Var(nXk)=n2VarXk \operatorname{Var} \left( \sum_{k=1}^{n} X_{k} \right) = \operatorname{Var} \left( n X_{k} \right) = n^{2} \operatorname{Var} X_{k} である。言い換えると、定理[2]を導くためには独立であることが絶対に必要である。

証明

[1]

期待値は線形であるため、X1,,XnX_{1} , \cdots , X_{n}が同じ分布に従うため、次が成立する。 E(k=1ng(Xk))=k=1nEg(Xk)lineartiy=nEg(X1)identical distributed \begin{align*} & E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& \sum_{k=1}^{n} E g \left( X_{k} \right) & \because \text{lineartiy} \\ =& n E g \left( X_{1} \right) & \because \text{identical distributed} \end{align*}

[2]

X1,,XnX_{1} , \cdots , X_{n}が独立であるため、iji \ne jならばCov(g(Xi),g(Xj))=0\operatorname{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) = 0である。したがって、 Var(k=1ng(Xk))=E[k=1ng(Xk)Ek=1ng(Xk)]2=E[k=1n[g(Xk)Eg(Xk)]]2=k=1nE[g(Xk)Eg(Xk)]2+ijE[g(Xi)Eg(Xi)g(Xj)Eg(Xj)]=k=1nVarg(Xk)+ijCov(g(Xi),g(Xj))=nVarg(X1)+0 \begin{align*} & \operatorname{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& E \left[ \sum_{k=1}^{n} g \left( X_{k} \right) - E \sum_{k=1}^{n} g \left( X_{k} \right) \right]^{2} \\ =& E \left[ \sum_{k=1}^{n} \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right] \right]^{2} \\ =& \sum_{k=1}^{n} E \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right]^{2} + \sum_{i \ne j} E \left[ g \left( X_{i} \right) - E g \left( X_{i} \right) g \left( X_{j} \right) - E g \left( X_{j} \right) \right] \\ =& \sum_{k=1}^{n} \operatorname{Var} g \left( X_{k} \right) + \sum_{i \ne j} \operatorname{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) \\ =& n \operatorname{Var} g \left( X_{1} \right) + 0 \end{align*} が成立する。


  1. Casella. (2001). Statistical Inference(2nd Edition): p213. ↩︎