logo

スチューデントのt検定の証明 📂数理統計学

スチューデントのt検定の証明

定理 1

確率変数 X1,,XnX_{1} , \cdots , X_{n}iid正規分布 N(μ,σ2)N\left( \mu,\sigma^{2} \right) に従うとすると

  • (a): XN(μ,σ2n) \overline{X} \sim N\left( \mu , { {\sigma^2} \over {n} } \right)
  • (b): XS2 \overline{X} \perp S^2
  • (c): (n1)S2σ2χ2(n1) (n-1) { {S^2} \over {\sigma^2} } \sim \chi^2 (n-1)
  • (d): T=XμS/nt(n1) T = { {\overline{X} - \mu } \over {S / \sqrt{n}} } \sim t(n-1)

  • 標本平均 X\overline{X}標本分散 S2S^{2} は、次のように定義される確率変数だ。

X:=1nk=1nXkS2:=1n1k=1n(XkX)2 \overline{X} := {{ 1 } \over { n }} \sum_{k=1}^{n} X_{k} \\ S^{2} := {{ 1 } \over { n-1 }} \sum_{k=1}^{n} \left( X_{k} - \overline{X} \right)^{2}

説明

統計学をする人たちは当たり前のように使っているけど、事実これにも名前がある。四つのパートに分けられていて、具体的に引用するのも難しい。

(b)は、標本平均でも標本分散でも、同じデータから出ているにもかかわらず、独立であるというのがそう。

小標本に対する母平均の推定

スチューデントの定理の証明は小標本での母平均に対する仮説検定の導出そのものだ。

証明

(a)

X=(X1+X2++Xn)n\displaystyle \overline{X} = { { (X_1 + X_2 + \cdots + X_n )} \over {n}} なので、正規分布に従う確率変数の和を考えた場合 XN(μ,1nσ2) \overline{X} \sim N \left( \mu, {{1} \over {n}} \sigma^2 \right)

(b)

  • 0\mathbf{0}ゼロベクトルを示す。
  • 1=(1,,1)=[11]\mathbf{1} = (1, \cdots , 1) = \begin{bmatrix} 1 \\ \vdots \\ 1 \end{bmatrix} はすべての成分が11 であるベクトルを示す。
  • II単位行列を示す。
  • ATA^{T} は行列AA転置行列を示す。

v:=1n1\displaystyle \mathbf{v} := {{ 1 } \over { n }} \mathbf{1} とする。

ランダムベクトル X:=(X1,,Xn)X := \left( X_{1} , \cdots , X_{n} \right)多変量正規分布に従い X=1n(X1++Xn)=1n[11][X1Xn]=1n1TX=vTX \begin{align*} \overline{X} =& {{ 1 } \over { n }} \left( X_{1} + \cdots + X_{n} \right) \\ &= {{ 1 } \over { n }} \begin{bmatrix} 1 & \cdots & 1 \end{bmatrix} \begin{bmatrix} X_{1} \\ \vdots \\ X_{n} \end{bmatrix} \\ =& {{ 1 } \over { n }} \mathbf{1}^{T} \mathbf{X} \\ =& \mathbf{v}^{T} \mathbf{X} \end{align*}

今、ランダムベクトル Y:=(X1X,,XnX)\mathbf{Y} := \left( X_{1} - \overline{X} , \cdots , X_{n} - \overline{X} \right) を定義すれば、あるランダムベクトル W\mathbf{W} は次のように表せる。 W=[XY]=[vTI1vT]X \mathbf{W} = \begin{bmatrix} \overline{X} \\ \mathbf{Y} \end{bmatrix} = \begin{bmatrix} \mathbf{v}^{T} \\ I - \mathbf{1} \mathbf{v}^{T} \end{bmatrix} \mathbf{X}

W\mathbf{W} は多変量正規分布に従うランダムベクトルが線形変換されたものなので、やはり多変量正規分布に従い、その母平均ベクトルは上の式に期待値を取った EW=[vTI1vT]μ1=[μ0n] E \mathbf{W} = \begin{bmatrix} \mathbf{v}^{T} \\ I - \mathbf{1} \mathbf{v}^{T} \end{bmatrix} \mu \mathbf{1} = \begin{bmatrix} \mu \\ \mathbf{0}_{n} \end{bmatrix} であり、共分散行列 Σ\SigmaΣ=[vTI1vT]σ2I[vTI1vT]T=σ2[1/n0nT0nI1vT] \begin{align*} \Sigma =& \begin{bmatrix} \mathbf{v}^{T} \\ I - \mathbf{1} \mathbf{v}^{T} \end{bmatrix} \sigma^{2} I \begin{bmatrix} \mathbf{v}^{T} \\ I - \mathbf{1} \mathbf{v}^{T} \end{bmatrix}^{T} \\ =& \sigma^{2} \begin{bmatrix} 1/n & \mathbf{0}_{n}^{T} \\ \mathbf{0}_{n} & I - \mathbf{1} \mathbf{v}^{T} \end{bmatrix} \end{align*} である。ここで、X\overline{X}Y\mathbf{Y} と独立であることがわかり S2=1n1k=1n(XkX)2=1n1YTY S^{2} = {{ 1 } \over { n-1 }} \sum_{k=1}^{n} \left( X_{k} - \overline{X} \right)^{2} = {{ 1 } \over { n-1 }} \mathbf{Y}^{T} \mathbf{Y} したがって、XS2\overline{X} \perp S^{2} である。

(c)

V=i=1n(Xiμσ)2\displaystyle V = \sum_{i=1}^{n} \left( { {X_{i} - \mu } \over {\sigma} } \right) ^2 とした場合 XiμσN(0,1)\displaystyle { {X_{i} - \mu } \over {\sigma} } \sim N(0,1)なのでVχ2(n)V \sim \chi^2 (n)であるとし

V=i=1n(Xiμσ)2=i=1n((XiX)+(Xμ)σ)2=i=1n(XiXσ)2+(Xμσ/n)2 \begin{align*} V =& \sum_{i=1}^{n} \left( { {X_{i} - \mu } \over {\sigma} } \right) ^2 \\ =& \sum_{i=1}^{n} \left( { { ( X_{i} -\overline{X} ) + ( \overline{X} - \mu ) } \over {\sigma} } \right) ^2 \\ =& \sum_{i=1}^{n} \left( { { X_{i} -\overline{X} } \over {\sigma} } \right) ^2 + \left( { { \overline{X} - \mu } \over {\sigma / \sqrt{n} } } \right) ^2 \end{align*}

ここで i=1n(XiXσ)2=n1σ2i=1n(XiX)2n1=(n1)S2σ2 \sum_{i=1}^{n} \left( { { X_{i} -\overline{X} } \over {\sigma} } \right) ^2 = { {n-1} \over {\sigma^2} } \sum_{i=1}^{n} { { ( X_{i} -\overline{X} ) ^ 2 } \over {n-1} } = (n-1) { {S^2} \over {\sigma^2} }

整理すると V=(n1)S2σ2+(Xμσ/n)2 V = (n-1) { {S^2} \over {\sigma^2} } + \left( { { \overline{X} - \mu } \over {\sigma / \sqrt{n} } } \right) ^2

Vχ2(n)V \sim \chi^2 (n) であり、スチューデントの定理の(a)により (Xμσ/n)N(0,1) \left( { { \overline{X} - \mu } \over {\sigma / \sqrt{n} } } \right) \sim N(0,1) であり、標準正規分布の二乗はカイ二乗分布に従うので (Xμσ/n)2χ2(1) \left( { { \overline{X} - \mu } \over {\sigma / \sqrt{n} } } \right)^2 \sim \chi^2 (1)

スチューデントの定理の(b)で、X\overline{X}S2S^2 が独立であることが示されたので、両辺をモーメント生成関数として (12t)n/2=E{exp((n1)S2σ2t)}(12t)1/2 (1-2t)^{-n/2} = E \left\{ \exp \left( (n-1) { {S^2} \over {\sigma^2} } t \right) \right\} (1-2t)^{-1/2}

したがって、(n1)S2σ2\displaystyle (n-1) { {S^2} \over {\sigma^2} }のモーメント生成関数は(12t)(n1)/2(1-2t)^{-(n-1)/2}である。

(d)

正規分布とカイ二乗分布からスチューデントのt分布の導出: WN(0,1)W \sim N(0,1)が真であり、Vχ2(r)V \sim \chi^2 (r)ならば T=WV/rt(r) T = { {W} \over {\sqrt{V/r} } } \sim t(r)

T=XμS/n=(Xμ)/(σ/n)(n1)S2/(σ2(n1)) T = { {\overline{X} - \mu } \over {S / \sqrt{n}} } = { {( \overline{X} - \mu ) / (\sigma / \sqrt{n}) } \over { \sqrt{ (n-1) S^2 / ( \sigma^2 ( n-1 ) ) } } } スチューデントの定理の(a)でXN(μ,σ2n)\displaystyle \overline{X} \sim N\left( \mu , { {\sigma^2} \over {n} } \right) が、(c)で(n1)S2σ2χ2(n1)\displaystyle (n-1) { {S^2} \over {\sigma^2} } \sim \chi^2 (n-1) であることが示されたので、 Tt(n1) T \sim t(n-1)


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p195. ↩︎