関数形の確率変数の和の期待値
定理 1
$X_{1} , \cdots , X_{n}$がランダムサンプルであり、$E g \left( X_{1} \right)$と$\operatorname{Var} g \left( X_{1} \right)$が存在して$g : \mathbb{R} \to \mathbb{R}$が与えられているとする。すると、次が成立する。
- [1] 平均: $$ E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n E g \left( X_{1} \right) $$
- [2] 分散: $$ \operatorname{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n \operatorname{Var} g \left( X_{1} \right) $$
説明
この定理で注目すべき点は、$\left\{ X_{k} \right\}_{k=1}^{n}$がランダムサンプル、つまりiidであることである。例えば、$i \ne j$の時、$X_{i} = X_{j}$であり、$g (x) = x$ならば、分散の性質でよく知られているように $$ \operatorname{Var} \left( \sum_{k=1}^{n} X_{k} \right) = \operatorname{Var} \left( n X_{k} \right) = n^{2} \operatorname{Var} X_{k} $$ である。言い換えると、定理[2]を導くためには独立であることが絶対に必要である。
証明
[1]
期待値は線形であるため、$X_{1} , \cdots , X_{n}$が同じ分布に従うため、次が成立する。 $$ \begin{align*} & E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& \sum_{k=1}^{n} E g \left( X_{k} \right) & \because \text{lineartiy} \\ =& n E g \left( X_{1} \right) & \because \text{identical distributed} \end{align*} $$
■
[2]
$X_{1} , \cdots , X_{n}$が独立であるため、$i \ne j$ならば$\operatorname{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) = 0$である。したがって、 $$ \begin{align*} & \operatorname{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& E \left[ \sum_{k=1}^{n} g \left( X_{k} \right) - E \sum_{k=1}^{n} g \left( X_{k} \right) \right]^{2} \\ =& E \left[ \sum_{k=1}^{n} \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right] \right]^{2} \\ =& \sum_{k=1}^{n} E \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right]^{2} + \sum_{i \ne j} E \left[ g \left( X_{i} \right) - E g \left( X_{i} \right) g \left( X_{j} \right) - E g \left( X_{j} \right) \right] \\ =& \sum_{k=1}^{n} \operatorname{Var} g \left( X_{k} \right) + \sum_{i \ne j} \operatorname{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) \\ =& n \operatorname{Var} g \left( X_{1} \right) + 0 \end{align*} $$ が成立する。
■
Casella. (2001). Statistical Inference(2nd Edition): p213. ↩︎