古典情報理論における相対エントロピー(クルバック・ライブラー発散)とは?古典情報理論における相対エントロピー(クルバック・ライブラー発散)とは?
離散確率変数の確率質量関数 p,qについて、pに対するqの相対的エントロピーrelative entropyを次のように定義する。
D(p∥q):=∑p(x)log2q(x)p(x)(1)
この時p=0に対して、plog2(0p):=∞と定義される。
連続確率変数に対しては積分で定義される。
D(p∥q):=∫p(x)lnq(x)p(x)dx
説明
相対的エントロピーは、クルバック・ライブラー発散Kullback-Leibler divergence (KLd)とも呼ばれ、以下のような表記が用いられる。
D(p∥q)=DKL(p∥q)=H(p∥q)
D(p∥q)は(Xの実際の分布がpの時)Xの分布をqと仮定することがどれほど不適切か、つまりqがpとどれほど違うかを測る尺度だ。−logqがqの情報量を意味するので、定義(1)はqとpの情報の平均差を意味する。
∑p(x)log2q(x)p(x)=∑p(x)[−log2q(x)−(−log2p(x))]=∑p(x)[I(q(x))−I(p(x))]=E[I(q)−I(p)]
特性
非対称性Non-symmetry
D(p∥q)=D(q∥p)
非負性
D(p∥q)≥0
等号はp=qの場合に成立する。
証明
2.
p=qであれば、定義によりD(p∥q)=0なのでp=qについて考えよう。
−D(p∥q)=∑p(x)log2p(x)q(x)≤log2(∑p(x)p(x)q(x))=log2(∑q(x))=log21=0
不等式は、対数関数が凹であるため、イェンセンの不等式により成立する。
イェンセンの不等式
fが凹関数であれば、次が成立する。∑k=1nλk=1に対して、
f(k=1∑nλkxk)≥k=1∑nλkf(xk)
したがって、両辺にマイナスをかけると、
0≤D(p∥q)
■
関連項目