logo

古典情報理論における相対エントロピー(クルバック・ライブラー発散)とは?

古典情報理論における相対エントロピー(クルバック・ライブラー発散)とは?

離散確率変数確率質量関数 p,qp, qについて、ppに対するqqの相対的エントロピーrelative entropyを次のように定義する。

D(pq):=p(x)log2p(x)q(x)(1) D(p \| q) := \sum p(x) \log_{2} \dfrac{p(x)}{q(x)} \tag{1}

この時p0p \ne 0に対して、plog2(p0):=p \log_{2}(\frac{p}{0}) := \inftyと定義される。

連続確率変数に対しては積分で定義される。

D(pq):=p(x)lnp(x)q(x)dx D(p \| q) := \int p(x) \ln \dfrac{p(x)}{q(x)} dx

説明

相対的エントロピーは、クルバック・ライブラー発散Kullback-Leibler divergence (KLd)とも呼ばれ、以下のような表記が用いられる。

D(pq)=DKL(pq)=H(pq) D(p \| q) = D_{\text{KL}}(p \| q) = H(p \| q)

D(pq)D(p \| q)は(XXの実際の分布がppの時)XXの分布をqqと仮定することがどれほど不適切か、つまりqqppとどれほど違うかを測る尺度だ。logq-\log qqq情報量を意味するので、定義(1)(1)qqppの情報の平均差を意味する。

p(x)log2p(x)q(x)=p(x)[log2q(x)(log2p(x))]=p(x)[I(q(x))I(p(x))]=E[I(q)I(p)] \begin{align*} \sum p(x) \log_{2} \dfrac{p(x)}{q(x)} &= \sum p(x) \big[ -\log_{2}q(x) - (-\log_{2}p(x)) \big] \\ &= \sum p(x) \big[ I(q(x)) - I(p(x)) \big] \\ &= E \big[ I(q) - I(p) \big] \end{align*}

特性

  1. 非対称性Non-symmetry D(pq)D(qp) D(p \| q) \ne D(q \| p)

  2. 非負性 D(pq)0 D(p \| q) \ge 0 等号はp=qp = qの場合に成立する。

証明

2.

p=qp=qであれば、定義によりD(pq)=0D(p \| q) = 0なのでpqp \ne qについて考えよう。

D(pq)=p(x)log2q(x)p(x)log2(p(x)q(x)p(x))=log2(q(x))=log21=0 \begin{align*} -D(p \| q) &= \sum p(x) \log_{2} \dfrac{q(x)}{p(x)} \\ &\le \log_{2} \left( \sum p(x) \dfrac{q(x)}{p(x)} \right) \\ &= \log_{2} \left( \sum q(x) \right) \\ &= \log_{2} 1 \\ &= 0 \end{align*}

不等式は、対数関数が凹であるため、イェンセンの不等式により成立する。

イェンセンの不等式

ffが凹関数であれば、次が成立する。k=1nλk=1\sum_{k=1}^{n} \lambda_{k} = 1に対して、

f(k=1nλkxk)k=1nλkf(xk) f\left( \sum\limits_{k=1}^{n}\lambda_{k}x_{k} \right) \ge \sum\limits_{k=1}^{n} \lambda_{k} f(x_{k})

したがって、両辺にマイナスをかけると、

0D(pq) 0 \le D(p \| q)

関連項目