logo

数理統計学における期待値、平均、分散、モーメントの定義 📂数理統計学

数理統計学における期待値、平均、分散、モーメントの定義

定義: 期待値、平均、分散

確率変数 XX が与えられたとする。

  1. 連続確率変数XX の確率密度関数f(x)f(x)xf(x)dx<\displaystyle \int_{-\infty}^{\infty} |x| f(x) dx < \infty を満たす場合、以下のように定義された E(X)E(X)XX期待値expectationと言う。 E(X):=xf(x)dx E(X) := \int_{-\infty}^{\infty} x f(x) dx

  2. 離散確率変数XX の確率質量関数p(x)p(x)xxp(x)<\displaystyle \sum_{x} |x| p(x) < \infty を満たす場合、以下のように定義された E(X)E(X)XX期待値expectationと言う。 E(X):=xxp(x) E(X) := \sum_{x} x p(x)

  3. μ=E(X)\mu = E(X) が存在する場合、XX平均meanと定義する。

  4. σ2=E((Xμ)2)\sigma^2 = E((X - \mu)^2) が存在する場合、XX分散varianceと定義する。

抽象化の意味

統計学を簡単な言葉で一言で言い表すなら、「だから平均的にどうなの?」を研究する学問だと言えるかもしれない。「平均」は代表値としてかなり直感的で、計算も簡単な統計量である。しかし、この世にある様々な現象を説明するには、そんな単純なレベルでは足りず、「期待値」という形で抽象化される。期待値は離散分布だけでなく区分求積法の発想を借りて連続分布にも対応する概念となる。この文章で議論するのはまさにその「抽象化」についての話である。

数理統計学は確かに統計理論に関する内容を含んでいるが、学問の性質を見たとき、本質的には数学の一分野に近い。従って、他の数学の分野のように数学者と同じマインドセットで数理統計学を理解しようとする努力が必要である。数学者の仕事の一つは、直感や既に世に出ている理論と矛盾せず、厳格な定義を考案して、万物、対象物、現象、またそれらを超えたすべてを記号に変え、そのすべてをその場で研究できるようにすることである。

平均と分散の定義を見ると、直感的な意味は全く残っておらず、単に確率変数に期待値を取った形で表されている。定義からこれらがどのように平均や実際につながるか、どのように分散と実際につながるかには関心がない。むしろ、平均と分散という概念を当たり前のように受け入れているほど習熟した学習者が、記号に逆らって適応することが期待される。実際、数理統計学を学ぶレベルの学習者であれば、それらの定義に大きな疑問を持つことはないだろう。

平均の抽象化と期待値という概念が定着すると、学者たちはより多くの可能性を発見する。単純な合計や積分といった限界を超え、基本的な代数学や解析学の理論を導入してこれらを扱い始めたのである。自然と、学者たちの関心は抽象化から一般化へと移行する。

定義: モーメント

自然数 mm に対して、E(Xm)E( X^m )XX の**mm番目のモーメント**mmth Momentと定義する。

一般化の意味

モーメントの定義を読むだけで即座に分かる事実は、第一モーメント、つまりE(X1)E(X^1)XX の平均になるということである。もう少し考えると、第二モーメントであるE(X2)E(X^2) も少しの操作を通じて分散になることもわかる。

平均は第一モーメント、分散は第二モーメントと実質的に同じ概念と見ることができる。逆に考えれば、モーメントの中で第一が平均に対応し、第二が分散に対応すると言えるだろう。

それでは、直感を持つ学者はもちろん、第三や第四のモーメントも何か重要な情報を与えることができるだろうと推測することになる。[ NOTE: 具体的には、これを歪度尖度と言う。] 今では研究の方向性が逆転し、明らかになった事実を理論で説明するのではなく、理論で隠された事実を見つけ出そうとするものになっている。

このような方法論は、統計学だけでなく、自然科学全般で容易に見ることができる。数理統計学は統計よりも数学に近いといえるが、学問の存在意義に近づくと再び統計学の姿を取り戻す。モーメントmomentという言葉自体は物理学などでも使用されるが、統計学ではモーメントがどのような意味を持つか考える必要はない。ただ、数理統計学を支える理論を説明する際に使用する言葉として知っておけば十分である。

一方で、期待値の存在条件であるxf(x)dx<\displaystyle \int_{-\infty}^{\infty} |x| f(x) dx < \infty、つまりxx でわざわざ絶対値を取る必要があるのか疑問に思うかもしれない。存在を保証することと具体的な値を計算することは別としても、XX の期待値E(X)E(X) は別の式を使う必要がないように見えるからである。

この点については、次の定理を見れば少しは役立つかもしれない。最も単純なXX の議論ではなく、g(X)g(X) への一般化まで考慮すると、むしろE(X)E(X) こそ恒等関数 g(x)=xg(x) = x に対する特別なケースとして定義されたと見ることもできるだろう。

定理

確率変数XX について、YY が何らかの関数gg に対してY:=g(X)Y := g(X) のように表れるとする。

  • [1]: XX が確率密度関数fXf_{X} を持つ連続確率変数で、g(x)fX(x)dx<\displaystyle \int_{-\infty}^{\infty} |g(x)| f_{X} (x) dx < \infty を満たす場合、 E(Y)=g(x)fX(x)dx E (Y) = \int_{-\infty}^{\infty} g(x) f_{X} (x) dx
  • [2]: XX が確率質量関数pXp_{X} を持つ離散確率変数で、xg(x)pX(x)<\displaystyle \sum_{x} |g(x)| p_{X} (x) < \infty を満たす場合、 E(Y)=xg(x)pX(x) E (Y) = \sum_{x} g(x) p_{X} (x)

参照