logo

数理統計学における尤度比検定の定義 📂数理統計学

数理統計学における尤度比検定の定義

定義 1

$$ \begin{align*} H_{0} :& \theta \in \Theta_{0} \\ H_{1} :& \theta \in \Theta_{0}^{c} \end{align*} $$

上記の仮説検定について、次の統計量 $\lambda$ を 尤度比検定統計量likelihood Ratio test statisticと言う。 $$ \lambda \left( \mathbf{x} \right) := {{ \sup_{\Theta_{0}} L \left( \theta \mid \mathbf{x} \right) } \over { \sup_{\Theta} L \left( \theta \mid \mathbf{x} \right) }} $$

与えられた$c \in [0,1]$に対して棄却域 $\left\{ \mathbf{x} : \lambda \left( \mathbf{x} \right) \le c \right\}$ を持つすべての仮説検定を 尤度比検定likelihood Ratio testと言い、通常、LRTと略す。


説明

$\lambda$ の定義で、分子は$\sup_{\Theta_{0}}$で、分母は$\sup_{\Theta}$でスプレマムを探している。帰無仮説下の部分パラメータ空間$\Theta_{0}$は全パラメータ空間の部分集合$\Theta_{0} \subseteq \Theta$で、自然に$0 \le \lambda \left( \mathbf{x} \right) \le 1$が成立する。この比が$0$に近いということは、その分、帰無仮説下でのパラメータがそんなにもっともらしくないという意味になる。

統計学を初めて学ぶ時に、基本的な確率分布論から始めて、t分布、F分布、カイ二乗分布などの検定統計量を別々に学ぶよりずっとわかりやすいと感じるだろう。もちろん、尤度比検定にはそれなりのモチベーションがあるが、前述の検定と違って、どんなビルドアップもなくても話が通じる。

例: 正規分布

実際にLRTを行う場合は、スプレマム$\sup$が反映された状態でなければならない。分母はパラメータ空間$\Theta$全体で最大になるので、最尤推定量を使用し、分子は帰無仮説下で最大になるように設定する。 $$ \begin{align*} H_{0} :& \theta = \theta_{0} \\ H_{1} :& \theta \ne \theta_{0} \end{align*} $$ 分散が既知の正規分布$N \left( \theta , \sigma^{2} \right)$のランダムサンプル$X_{1} , \cdots , X_{n}$に対して、上記の仮説検定を考えよう。ここで、分母は母平均$\theta$に対する最尤推定量である標本平均$\bar{\mathbf{x}}$を使用しなければならず、分子は帰無仮説のパラメータ空間が単集合$\Theta_{0} = \left\{ \theta_{0} \right\}$であるため、$\theta_{0}$をそのまま使用すればよい。数式的に次のように求められる。 $$ \begin{align*} \lambda \left( \mathbf{x} \right) =& {{ \sup_{\Theta_{0}} L \left( \theta \mid \mathbf{x} \right) } \over { \sup_{\Theta} L \left( \theta \mid \mathbf{x} \right) }} \\ =& {{ L \left( \theta_{0} \mid \mathbf{x} \right) } \over { L \left( \bar{\mathbf{x}} \mid \mathbf{x} \right) }} \\ =& {{ (2\pi)^{-n/2} \exp \left( - \sum \left( x_{k} - \theta_{0} \right)^{2} / 2 \right) } \over { (2\pi)^{-n/2} \exp \left( - \sum \left( x_{k} - \bar{\mathbf{x}} \right)^{2} / 2 \right) }} \\ =& \exp \left( -n \left( \bar{\mathbf{x}} - \theta_{0} \right)^{2} / 2 \right) \end{align*} $$ このとき、$\lambda (\mathbf{x})$は正確に$\bar{\mathbf{x}} = \theta_{0}$のとき$1$であり、差が大きくなるほど$0$に近づくことに注意しよう。もちろん、LRTの数式的な定義では、$0$から$1$までであることは分かっているが、計算された結果を見ると、実際に標本分散が帰無仮説下の母平均とどれほど類似しているかに応じて、直感的に仮説検定を行うことができる。


  1. Casella. (2001). Statistical Inference(2nd Edition): p375. ↩︎