고전정보이론에서 상대적 엔트로피(쿨백-라이블러 발산)란?
📂양자정보이론고전정보이론에서 상대적 엔트로피(쿨백-라이블러 발산)란?
이산확률변수 X의 확률질량함수 p,q에 대해서, p의 q에 관한 상대적 엔트로피relative entropy를 다음과 같이 정의한다.
D(p∥q):=∑p(x)log2q(x)p(x)(1)
이때 p=0에 대해서, plog2(0p):=∞로 정의한다.
연속확률변수에 대해서는 적분으로 정의된다.
D(p∥q):=∫p(x)lnq(x)p(x)dx
설명
상대적 엔트로피는 쿨백-라이블러 발산Kullback-Leibler divergence (KLd)이라고도 하며 다음과 같은 표기법들이 쓰인다.
D(p∥q)=DKL(p∥q)=H(p∥q)
D(p∥q)는 (X의 실제 분포가 p일 때) X의 분포를 q라고 가정하는 것이 얼마나 좋지 않은지, 다시말해 q가 p와 얼마나 다른지를 재는 척도이다. −logq가 q의 정보량을 의미하므로, 정의 (1)은 q와 p의 정보의 차이의 평균을 의미한다.
∑p(x)log2q(x)p(x)=∑p(x)[−log2q(x)−(−log2p(x))]=∑p(x)[I(q(x))−I(p(x))]=E[I(q)−I(p)]
성질
비대칭성Non-symmetry
D(p∥q)=D(q∥p)
Non-negativity
D(p∥q)≥0
등호는 p=q일 때 성립한다.
증명
2.
p=q이면 정의에 의해 D(p∥q)=0이므로 p=q에 대해 생각하자.
−D(p∥q)=∑p(x)log2p(x)q(x)≤log2(∑p(x)p(x)q(x))=log2(∑q(x))=log21=0
부등호는, 로그함수가 오목이므로, 옌센 부등식에 의해 성립한다.
옌센 부등식
f가 오목함수이면, 다음이 성립한다. ∑k=1nλk=1에 대해서,
f(k=1∑nλkxk)≥k=1∑nλkf(xk)
그러므로 양변에 마이너스를 곱하면,
0≤D(p∥q)
■
같이보기