logo

ラオ-ブラックウェル-コルモゴロフ定理 📂数理統計学

ラオ-ブラックウェル-コルモゴロフ定理

要旨 1

正則条件

  • (R0):確率密度関数ffθ\thetaに対して単射である。数式で表せば次を満たす。 θθ    f(xk;θ)f(xk;θ) \theta \ne \theta ' \implies f \left( x_{k} ; \theta \right) \ne f \left( x_{k} ; \theta ' \right)
  • (R1):確率密度関数ffは全てのθ\thetaに対して同じサポートを持つ。
  • (R2):真値θ0\theta_{0}Ω\Omega内点interior pointである。
  • (R3):確率密度関数ffθ\thetaに対して2回微分可能である。
  • (R4):積分f(x;θ)dx\int f (x; \theta) dxは積分記号の中でθ\thetaに対して2回微分可能である。

パラメーターθ\thetaに対して確率密度関数がf(x;θ)f(x; \theta)ランダムサンプルX1,,XnX_{1}, \cdots , X_{n}が与えられ、正則条件(R0)〜(R4)を満たすとする。統計量Y:=u(X1,,Xn)Y := u \left( X_{1} , \cdots , X_{n} \right)E(Y)=k(θ)E(Y) = k(\theta)であれば Var(Y)[k(θ)]2nI(θ) \operatorname{Var} (Y) \ge {{ \left[ k’(\theta) \right]^{2} } \over { n I (\theta) }} このとき右辺の[k(θ)]2nI(θ){{ \left[ k’(\theta) \right]^{2} } \over { n I (\theta) }}ラオ-クレーマー下限rao-Cramér Lower Boundと呼ぶ。


証明

連続型の場合の証明だが、離散型でも大差ない。


k(θ)=E(Y)k(\theta) = E(Y)を積分形で書き下すと k(θ)=RRu(x1,,xn)f(x1;θ)f(xn;θ)dx1dxn k(\theta) = \int_{\mathbb{R}} \cdots \int_{\mathbb{R}} u \left( x_{1}, \cdots , x_{n} \right) f \left( x_{1}; \theta \right) \cdots f \left( x_{n}; \theta \right) d x_{1} \cdots d x_{n} 両辺をθ\thetaで微分すると、ffθ\thetaの関数としてみると、ログ関数の微分法からlogg=gg\displaystyle \log g = {{ g' } \over { g }}となるので k(θ)=RRu(x1,,xn)[k=1n1f(xk;θ)f(xk;θ)θ]×f(x1;θ)f(xn;θ)dx1dxn=RRu(x1,,xn)[k=1nff]×f(x1;θ)f(xn;θ)dx1dxn=RRu(x1,,xn)[k=1nlogf(xk;θ)θ]×f(x1;θ)f(xn;θ)dx1dxn \begin{align*} k’(\theta) =& \int_{\mathbb{R}} \cdots \int_{\mathbb{R}} u \left( x_{1}, \cdots , x_{n} \right) \left[ \sum_{k=1}^{n} {{ 1 } \over { f \left( x_{k} ; \theta \right) }} {{ \partial f \left( x_{k} ; \theta \right) } \over { \partial \theta }} \right] \\ & \times f \left( x_{1}; \theta \right) \cdots f \left( x_{n}; \theta \right) d x_{1} \cdots d x_{n} \\ =& \int_{\mathbb{R}} \cdots \int_{\mathbb{R}} u \left( x_{1}, \cdots , x_{n} \right) \left[ \sum_{k=1}^{n} {{ f ' } \over { f }} \right] \\ & \times f \left( x_{1}; \theta \right) \cdots f \left( x_{n}; \theta \right) d x_{1} \cdots d x_{n} \\ =& \int_{\mathbb{R}} \cdots \int_{\mathbb{R}} u \left( x_{1}, \cdots , x_{n} \right) \left[ \sum_{k=1}^{n} {{ \partial \log f \left( x_{k} ; \theta \right) } \over { \partial \theta }} \right] \\ & \times f \left( x_{1}; \theta \right) \cdots f \left( x_{n}; \theta \right) d x_{1} \cdots d x_{n} \end{align*} 新しい確率変数Z:=k=1nlogf(xk;θ)θ\displaystyle Z := \sum_{k=1}^{n} {{ \partial \log f \left( x_{k} ; \theta \right) } \over { \partial \theta }}を定義すると、上記の式は次のようにすっきりと整理される。 k(θ)=E(YZ) k’(\theta) = E(YZ)

バートレットの第一同一式E[logf(X;θ)θ]=0 E \left[ {{ \partial \log f ( X ; \theta ) } \over { \partial \theta }} \right] = 0

フィッシャー情報の分散形Var(logL(θ;X)θ)=nI(θ) \operatorname{Var} \left( {{ \partial \log L ( \theta ; \mathbf{X} ) } \over { \partial \theta }} \right) = n I (\theta)

ここで、ZZはスコア関数の和を表すので、バートレットの同一式とフィッシャー情報の分散形により E(Z)=0Var(Z)=nI(θ) \begin{align*} E(Z) =& 0 \\ \operatorname{Var}(Z) =& n I (\theta) \end{align*} k(θ)k’(\theta)共分散形で解くと、Y,ZY,Zの標準偏差とピアソン相関係数ρ\rhoについて k(θ)=E(YZ)=E(Y)E(Z)+ρσYσZ=E(Y)0+ρσYnI(θ) \begin{align*} k’(\theta) =& E(YZ) \\ =& E(Y)E(Z) + \rho \sigma_{Y} \sigma_{Z} \\ =& E(Y) \cdot 0 + \rho \sigma_{Y} \sqrt{n I(\theta)} \end{align*} 両辺を二乗してρ2\rho^{2}について整理すると [k(θ)]2σY2nI(θ)ρ2 {{ \left[ k’(\theta) \right]^{2} } \over { \sigma_{Y}^{2} n I (\theta) }} \le \rho^{2} ρ21\rho^{2} \le 1であり、両辺にσY2=Var(Y)\sigma_{Y}^{2} = \operatorname{Var} (Y)を掛けると [k(θ)]2nI(θ)Var(Y) {{ \left[ k’(\theta) \right]^{2} } \over { n I (\theta) }} \le \operatorname{Var} (Y)

付随する結果

もしk(θ)=θk(\theta) = \theta、つまりYY不偏推定量であれば k(θ)=θ    k(θ)=1    [k(θ)]2=1 \begin{align*} & k(\theta) = \theta \\ \implies& k’(\theta) = 1 \\ \implies& \left[ k’(\theta) \right]^{2} = 1 \end{align*} それによって Var(Y)1nI(θ) \operatorname{Var} (Y) \ge {{ 1 } \over { n I (\theta) }}


  1. Hogg et al. (2013). Introduction to Mathematical Statistcs(7th Edition): p337. ↩︎