logo

関数形の確率変数の和の期待値 📂数理統計学

関数形の確率変数の和の期待値

定理 1

$X_{1} , \cdots , X_{n}$がランダムサンプルであり、$E g \left( X_{1} \right)$と$\text{Var} g \left( X_{1} \right)$が存在して$g : \mathbb{R} \to \mathbb{R}$が与えられているとする。すると、次が成立する。

  • [1] 平均: $$ E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n E g \left( X_{1} \right) $$
  • [2] 分散: $$ \text{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) = n \text{Var} g \left( X_{1} \right) $$

説明

この定理で注目すべき点は、$\left\{ X_{k} \right\}_{k=1}^{n}$がランダムサンプル、つまりiidであることである。例えば、$i \ne j$の時、$X_{i} = X_{j}$であり、$g (x) = x$ならば、分散の性質でよく知られているように $$ \text{Var} \left( \sum_{k=1}^{n} X_{k} \right) = \text{Var} \left( n X_{k} \right) = n^{2} \text{Var} X_{k} $$ である。言い換えると、定理[2]を導くためには独立であることが絶対に必要である。

証明

[1]

期待値は線形であるため、$X_{1} , \cdots , X_{n}$が同じ分布に従うため、次が成立する。 $$ \begin{align*} & E \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& \sum_{k=1}^{n} E g \left( X_{k} \right) & \because \text{lineartiy} \\ =& n E g \left( X_{1} \right) & \because \text{identical distributed} \end{align*} $$

[2]

$X_{1} , \cdots , X_{n}$が独立であるため、$i \ne j$ならば$\text{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) = 0$である。したがって、 $$ \begin{align*} & \text{Var} \left( \sum_{k = 1}^{n} g \left( X_{k} \right) \right) \\ =& E \left[ \sum_{k=1}^{n} g \left( X_{k} \right) - E \sum_{k=1}^{n} g \left( X_{k} \right) \right]^{2} \\ =& E \left[ \sum_{k=1}^{n} \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right] \right]^{2} \\ =& \sum_{k=1}^{n} E \left[ g \left( X_{k} \right) - E g \left( X_{k} \right) \right]^{2} + \sum_{i \ne j} E \left[ g \left( X_{i} \right) - E g \left( X_{i} \right) g \left( X_{j} \right) - E g \left( X_{j} \right) \right] \\ =& \sum_{k=1}^{n} \text{Var} g \left( X_{k} \right) + \sum_{i \ne j} \text{Cov} \left( g \left( X_{i} \right) , g \left( X_{j} \right) \right) \\ =& n \text{Var} g \left( X_{1} \right) + 0 \end{align*} $$ が成立する。


  1. Casella. (2001). Statistical Inference(2nd Edition): p213. ↩︎