logo

고전정보이론에서 상대적 엔트로피(쿨백-라이블러 발산)란? 📂양자정보이론

고전정보이론에서 상대적 엔트로피(쿨백-라이블러 발산)란?

양자정보이론
[ 펼치기 · 접기 ]

이산확률변수 XX확률질량함수 p,qp, q에 대해서, ppqq에 관한 상대적 엔트로피relative entropy를 다음과 같이 정의한다.

D(pq):=p(x)log2p(x)q(x)(1) D(p \| q) := \sum p(x) \log_{2} \dfrac{p(x)}{q(x)} \tag{1}

이때 p0p \ne 0에 대해서, plog2(p0):=p \log_{2}(\frac{p}{0}) := \infty로 정의한다.

연속확률변수에 대해서는 적분으로 정의된다.

D(pq):=p(x)lnp(x)q(x)dx D(p \| q) := \int p(x) \ln \dfrac{p(x)}{q(x)} dx

설명

상대적 엔트로피는 쿨백-라이블러 발산Kullback-Leibler divergence (KLd)이라고도 하며 다음과 같은 표기법들이 쓰인다.

D(pq)=DKL(pq)=H(pq) D(p \| q) = D_{\text{KL}}(p \| q) = H(p \| q)

D(pq)D(p \| q)는 (XX의 실제 분포가 pp일 때) XX의 분포를 qq라고 가정하는 것이 얼마나 좋지 않은지, 다시말해 qqpp와 얼마나 다른지를 재는 척도이다. logq-\log qqq정보량을 의미하므로, 정의 (1)(1)qqpp의 정보의 차이의 평균을 의미한다.

p(x)log2p(x)q(x)=p(x)[log2q(x)(log2p(x))]=p(x)[I(q(x))I(p(x))]=E[I(q)I(p)] \begin{align*} \sum p(x) \log_{2} \dfrac{p(x)}{q(x)} &= \sum p(x) \big[ -\log_{2}q(x) - (-\log_{2}p(x)) \big] \\ &= \sum p(x) \big[ I(q(x)) - I(p(x)) \big] \\ &= E \big[ I(q) - I(p) \big] \end{align*}

성질

  1. 비대칭성Non-symmetry D(pq)D(qp) D(p \| q) \ne D(q \| p)

  2. Non-negativity D(pq)0 D(p \| q) \ge 0 등호는 p=qp = q일 때 성립한다.

증명

2.

p=qp=q이면 정의에 의해 D(pq)=0D(p \| q) = 0이므로 pqp \ne q에 대해 생각하자.

D(pq)=p(x)log2q(x)p(x)log2(p(x)q(x)p(x))=log2(q(x))=log21=0 \begin{align*} -D(p \| q) &= \sum p(x) \log_{2} \dfrac{q(x)}{p(x)} \\ &\le \log_{2} \left( \sum p(x) \dfrac{q(x)}{p(x)} \right) \\ &= \log_{2} \left( \sum q(x) \right) \\ &= \log_{2} 1 \\ &= 0 \end{align*}

부등호는, 로그함수가 오목이므로, 옌센 부등식에 의해 성립한다.

옌센 부등식

ff가 오목함수이면, 다음이 성립한다. k=1nλk=1\sum_{k=1}^{n} \lambda_{k} = 1에 대해서,

f(k=1nλkxk)k=1nλkf(xk) f\left( \sum\limits_{k=1}^{n}\lambda_{k}x_{k} \right) \ge \sum\limits_{k=1}^{n} \lambda_{k} f(x_{k})

그러므로 양변에 마이너스를 곱하면,

0D(pq) 0 \le D(p \| q)

같이보기