ベイズ因子を通じた仮説検定
ビルドアップ
古典的な仮説検定を使うためには、棄却域、有意確率などの概念に対する数学的な理解から、それらを直観的に受け入れられるだけの統計学的センスまで備えていなければならない。大学1年生の教養レベルでも数時間を割いて教えても、仮説検定をちゃんと理解できない学生がたくさんいるのも当然のことだ。高等学校で学ぶ統計が問題解決は簡単でも、その真の意味まで理解している学生は多くないのと似ている。
仮説検定 1
一方、ベイジアン統計では、ベイズ因子Bayes Factorというものを通じて非常に簡単に仮説検定ができる。
帰無仮説と対立仮説が $H_{0}$ vs $H_{1}$ として与えられているとする。
- $\pi_{0}, \pi_{1}$ はそれぞれ帰無仮説、対立仮説に対する事前情報と言われる。
- $\alpha_{0}, \alpha_{1}$ はそれぞれ帰無仮説、対立仮説に対する事後情報と言われる。
- $\displaystyle B_{01} := {{ \alpha_{0 } / \alpha_{1} } \over { \pi_{0 } / \pi_{1} }} = {{ \alpha_{0 } / \pi_{0} } \over { \alpha_{1 } / \pi_{1} }}$ は $H_{0}$ を支持するベイズ因子と言われる。
ベイズ因子をよく見ると $$ B_{01} = {{ \displaystyle {{ \alpha_{0} } \over { \cdot }} } \over { \displaystyle {{ \cdot } \over { \pi_{1} }} }} $$ の $\cdot$ には $\alpha_{1}$ と $\pi_{0}$ がそれぞれ自由に入ることができる。だから、式を複雑に覚える必要はなく、ただ一番上には $\alpha_{0}$ が、一番下には $\pi_{1}$ が入ることだけ覚えておけばいい。
ベイジアン分析における仮説検定は、$B_{01}$ が $1$ より大きければ帰無仮説を支持し、$1$ より小さければ対立仮説を支持するだけだ。特に $$ B_{01} = {{ \alpha_{0 } / \pi_{0} } \over { \alpha_{1 } / \pi_{1} }} = {{ \text{귀무} } \over { \text{대립} }} $$ と考えると理解がずっと簡単になる。簡単に言うと、データで実際に計算してみて帰無仮説である確率が高ければ、帰無仮説を支持するということだ。棄却域だの有意確率だのを考える必要はない。
$B_{01} = 3$ と言えば、それは事後情報が $H_{0}$ を支持する程度が $H_{1}$ を支持する程度の $3$ 倍という意味だ。
ジェフリーの解釈
このように帰無仮説を支持する程度について、ジェフリーは以下のような解釈を提案した。$H_{0}$ を支持する観点からベイズ因子の値は次のように解釈される。
- $1 \le B_{01} \le 3$: 弱い証拠
- $3 < B_{01} \le 12$: 肯定的証拠
- $12 < B_{01} \le 150$: 強い証拠
- $150 \le B_{01}$: 非常に強い証拠
この解釈の利点は、フリークエンティストの仮説検定の「有意確率が有意水準を超えるか超えないか」という極端な二分法に比べてずっと柔軟である点だ。回帰分析をよく使う人なら、有意水準を $\alpha = 0.05$ に設定したいのに有意確率が $p = 0.069925$ のように出てしまって回帰係数を捨てなければならなかった経験があるだろう。正直に言って分析者も人間だから、こんなことが起きればイライラするしかない。だから、あらゆる方法で解決策を探すが、大半は実らずに終わる。
それに比べて、ベイジアン仮説検定は、十分であれ不十分であれ、データをありのまま受け入れるだけだ。
例
$Y \sim B (10, \theta )$ の時、$\displaystyle H_{0} : \theta = {{1} \over {2}}$ vs $\displaystyle H_{1} : \theta \ne {{1} \over {2}}$ に対してベイズ検定を行いたい。$H_{0}$ と $H_{1}$ の事前確率は同じで、$H_{1}$ の下で $\theta \sim \text{Beta} (1,1)$ であり、観測値は $Y=7$ である。ベイズ因子 $B_{01}$ を計算せよ。
解答
$$ \begin{align*} B_{01} =& {{ \alpha_{0 } / \pi_{0} } \over { \alpha_{1 } / \pi_{1} }} = {{ p ( y \mid \theta_{0} ) } \over { \int_{\Theta_{1}} p ( y \mid \theta ) g ( \theta ) d \theta }} = {{ p ( Y = 7 \mid \theta = {{1} \over {2}} ) } \over { \int_{\Theta_{1}} p ( y \mid \theta ) d \theta }} \\ =& {{ \binom{10}{7} \left( {{1} \over {2}} \right)^{7} \left( 1- {{1} \over {2}} \right)^{3} } \over { \int_{0}^{1} \binom{10}{7} \theta^{7} \left( 1 - \theta \right)^{3} d \theta }} = {{1} \over {2^{10}}} {{1} \over { \int_{0}^{1} \theta^{8-1} (1 - \theta)^{4-1} d \theta }} = {{1} \over {2^{10}}} {{ \Gamma ( 8 + 4 ) } \over { \Gamma ( 8 ) \Gamma ( 4 ) }} \\ =& {{1} \over {2^{10}}} {{ 11! } \over { 7! \cdot 3! }} = {{1} \over {2^{10}}} {{ 8 \cdot 9 \cdot 10 \cdot 11 } \over { 2 \cdot 3 }} = {{ 2^4 \cdot 3^2 \cdot 5 \cdot 11 } \over { 2^{11} \cdot 3 }} = {{ 165 } \over { 2^{7} }} = 1.2890625 \end{align*} $$ したがって、$B_{01}$ は帰無仮説を支持する弱い証拠となる。
김달호. (2013). R과 WinBUGS를 이용한 베이지안 통계학: p159~161. ↩︎