logo

加重平均の定義 📂数理統計学

加重平均の定義

定義

データ x={x1,,xn}\mathbf{x} = \left\{ x_{1} , \cdots , x_{n} \right\}ベクトル w=(w1,,wn)Rn\mathbf{w} = \left( w_{1} , \cdots , w_{n} \right) \in \mathbb{R}^{n} に対して、以下を加重平均weighted meanという。 k=1nwkxkk=1nwk=w1x1++wnxnw1++wn {{ \sum_{k=1}^{n} w_{k} x_{k} } \over { \sum_{k=1}^{n} w_{k} }} = {{ w_{1} x_{1} + \cdots + w_{n} x_{n} } \over { w_{1} + \cdots + w_{n} }} その一方で、w\mathbf{w} は加重ベクトルあるいは単に重みとも呼び、英語ではただのウェイトweightという。

説明

加重平均は、数理統計学や一般的な数学の分野で頻繁に言及される統計量で、全ての重みが同一の算術平均の一般化と見なすことができる。w=(a,,a)0\mathbf{w} = \left( a , \cdots , a \right) \ne \mathbf{0} の場合、以下のように広く使われる標本平均になる。 ax1++axna++a=x1++xnn {{ a x_{1} + \cdots + a x_{n} } \over { a + \cdots + a }} = {{ x_{1} + \cdots + x_{n} } \over { n }} x\mathbf{x} が多次元に拡張されると、幾何学的には重複を許した複数の点の重心と見なすことができ、物理学では次のように各粒子の質量を重みとして持つ加重平均として質量中心を定義できる。 rcm=m1r1+m2r2++mnrnm1+m2++mn=mirim \mathbf{r}_{cm}=\frac{m_{1}\mathbf{r}_{1}+m_{2}\mathbf{r}_{2}+\cdots + m_{n}\mathbf{r}_{n}}{m_{1}+ m_{2}+ \cdots+ m_{n}}=\frac{\sum m_{i}\mathbf{r}_{i}}{m} 統計学というホームグラウンドでは、あまりにも当たり前で馴染み深い概念で、特別な説明もなく突然登場することが多い。例えば、様々な集団から得られた標本の合同分散 sp2s_{p}^{2} は、次のようになる。 sp2=(n11)s12++(nm1)sm2(n11)++(nm1)=i=1m(ni1)si2i=1m(ni1) s_{p}^{2} = {{ \left( n_{1} - 1 \right) s_{1}^{2} + \cdots + \left( n_{m} - 1 \right) s_{m}^{2} } \over { \left( n_{1} - 1 \right) + \cdots + \left( n_{m} - 1 \right) }} = {{ \sum_{i=1}^{m} \left( n_{i} - 1 \right) s_{i}^{2} } \over { \sum_{i=1}^{m} \left( n_{i} - 1 \right) }}

指数加重平均

時系列データ {xt}t=1n\left\{ x_{t} \right\}_{t=1}^{n}について、次の値を{xt}t=1n\left\{ x_{t} \right\}_{t=1}^{n}指数加重平均exponentially weighted averageという。β(0,1)\beta \in (0,1)について、

βn1x1+βn2x2++β0xnβn1+βn2++β0=(1β)βn1x1+βn2x2++β0xn1βn=(1β)t=1nβntxt1βn \begin{align*} \dfrac{\beta^{n-1}x_{1} + \beta^{n-2}x_{2} + \cdots + \beta^{0}x_{n}}{\beta^{n-1} + \beta^{n-2} + \cdots + \beta^{0}} &= (1 - \beta) \dfrac{\beta^{n-1}x_{1} + \beta^{n-2}x_{2} + \cdots + \beta^{0}x_{n}}{1 - \beta^{n}} \\ &= \dfrac{ (1 - \beta) \sum\limits_{t=1}^{n}\beta^{n-t}x_{t} }{1 - \beta^{n}} \end{align*}

最初の等号は等比数列の和の公式によって成り立つ。これは、過去のデータほど重みを指数的に減少させて加えることを意味する。次のように再帰的に定義されることもある。

y0=0yt=βyt1+(1β)xt=(1β)j=1tβtjxj \begin{align*} y_{0} &= 0 \\ y_{t} &= \beta y_{t-1} + (1-\beta) x_{t} = (1-\beta) \sum\limits_{j=1}^{t} \beta^{t-j} x_{j} \end{align*}

この場合、加重和であるため、(1βt)(1 - \beta^{t})で割ると加重平均になる。

y^t=yt1βt \hat{y}_{t} = \dfrac{y_{t}}{1 - \beta^{t}}