古典情報理論における相対エントロピー(クルバック・ライブラー発散)とは?古典情報理論における相対エントロピー(クルバック・ライブラー発散)とは?
離散確率変数 Xの確率質量関数 p,qについて、pのqに関する相対エントロピーrelative entropyを次のように定義する。
D(p∥q):=∑p(x)log2q(x)p(x)(1)
このとき、p=0について、plog2(0p):=∞で定義する。連続確率変数については積分で定義される。
D(p∥q):=∫p(x)lnq(x)p(x)dx
期待値の形は次の通り。
D(p∥q)=Ep[logq(X)p(X)]
説明
相対エントロピーはクルバック-ライブラー発散Kullback-Leibler divergence (KLd)とも呼ばれ、次のような記法が用いられる。
D(p∥q)=DKL(p∥q)=H(p∥q)
D(p∥q)は(Xの実際の分布がpの時)Xの分布をqと仮定することがどれほど良くないか、言い換えればqがpとどれほど異なるかを測る尺度である。−logqがqの情報量を意味するので、定義(1)はqとpの情報の差の平均を意味する。
∑p(x)log2q(x)p(x)=∑p(x)[−log2q(x)−(−log2p(x))]=∑p(x)[I(q(x))−I(p(x))]=E[I(q)−I(p)]
性質
非対称性Non-symmetry
D(p∥q)=D(q∥p)
非負性Non-negativity
D(p∥q)≥0
等号はp=qのとき成立する。
証明
2.
p=qの場合、定義によりD(p∥q)=0であるため、p=qについて考える。
−D(p∥q)=∑p(x)log2p(x)q(x)≤log2(∑p(x)p(x)q(x))=log2(∑q(x))=log21=0
不等号は、対数関数が凹関数なので、イェンセンの不等式により成り立つ。
イェンセンの不等式
fが凹関数であれば、以下が成り立つ。∑k=1nλk=1について、
f(k=1∑nλkxk)≥k=1∑nλkf(xk)
したがって両辺にマイナスをかけると、
0≤D(p∥q)
■
関連項目