logo

十分統計量を含む尤度比検定 📂数理統計学

十分統計量を含む尤度比検定

定理

仮説検定: H0:θΘ0H1:θΘ0c \begin{align*} H_{0} :& \theta \in \Theta_{0} \\ H_{1} :& \theta \in \Theta_{0}^{c} \end{align*}

尤度比検定統計量: λ(x):=supΘ0L(θx)supΘL(θx) \lambda \left( \mathbf{x} \right) := {{ \sup_{\Theta_{0}} L \left( \theta \mid \mathbf{x} \right) } \over { \sup_{\Theta} L \left( \theta \mid \mathbf{x} \right) }}

T(X)T \left( \mathbf{X} \right)がパラメータθ\theta十分統計量であり、

  • λ(t)\lambda^{\ast} (t)TTに依存する尤度比検定統計量
  • λ(x)\lambda (\mathbf{x})X\mathbf{X}に依存する尤度比検定統計量

である場合、すべての標本空間の全てのxΩ\mathbf{x} \in \Omegaに対してλ(T(x))=λ(x)\lambda^{\ast} \left( T \left( \mathbf{x} \right) \right) = \lambda \left( \mathbf{x} \right)が成り立つ。

説明

この定理により、なぜ十分統計量と名付けられたかを改めて確認できる。したがって、尤度比検定を行う際、十分統計量がある場合は、他の可能性を考えることなくλ\lambda^{\ast}から始めることができる。

証明 1

f(xθ)=g(tθ)h(x) f \left( \mathbf{x} \mid \theta \right) = g \left( t \mid \theta \right) h \left( \mathbf{x} \right)

ネイマン分解定理によれば、x\mathbf{x}のpdfまたはpmf f(xθ)f \left( \mathbf{x} \mid \theta \right)は、TTのpdfまたはpmf g(tθ)g \left( t \mid \theta \right)θ\thetaに依存しない関数h(x)h \left( \mathbf{x} \right)について、次のように表せる。 λ(x)=supΘ0L(θx)supΘL(θx)=supΘ0f(xθ)supΘf(xθ)=supΘ0g(T(x)θ)h(x)supΘg(T(x)θ)h(x)T is sufficient=supΘ0g(T(x)θ)supΘg(T(x)θ)h doesn’t depend on θ=supΘ0L(θx)supΘL(θx)g is the pdf or pmf of T=λ(T(x)) \begin{align*} \lambda \left( \mathbf{x} \right) =& {{ \sup_{\Theta_{0}} L \left( \theta \mid \mathbf{x} \right) } \over { \sup_{\Theta} L \left( \theta \mid \mathbf{x} \right) }} \\ =& {{ \sup_{\Theta_{0}} f \left( \mathbf{x} \mid \theta \right) } \over { \sup_{\Theta} f \left( \mathbf{x} \mid \theta \right) }} \\ =& {{ \sup_{\Theta_{0}} g \left( T \left( \mathbf{x} \right) \mid \theta \right) h \left( \mathbf{x} \right) } \over { \sup_{\Theta} g \left( T \left( \mathbf{x} \right) \mid \theta \right) h \left( \mathbf{x} \right) }} & \because T \text{ is sufficient} \\ =& {{ \sup_{\Theta_{0}} g \left( T \left( \mathbf{x} \right) \mid \theta \right) } \over { \sup_{\Theta} g \left( T \left( \mathbf{x} \right) \mid \theta \right) }} & \because h \text{ doesn’t depend on } \theta \\ =& {{ \sup_{\Theta_{0}} L^{\ast} \left( \theta \mid \mathbf{x} \right) } \over { \sup_{\Theta} L^{\ast} \left( \theta \mid \mathbf{x} \right) }} & \because g \text{ is the pdf or pmf of } T \\ =& \lambda^{\ast} \left( T \left( \mathbf{x} \right) \right) \end{align*}


  1. Casella. (2001). Statistical Inference(2nd Edition): p377. ↩︎