상호 정보
📂양자정보이론상호 정보
정의
PX, PY, PX,Y를 각각 이산확률변수 X, Y의 확률질량함수와 결합 확률질량함수라고 하자. X와 Y의 상호 정보mutual information를 다음과 같이 정의한다.
I(X,Y):=D(PX,Y∥PXPY)=x∈X,y∈Y∑PX,Y(x,y)log2(PX(x)PY(x)PX,Y(x,y))
이때 D는 상대적 엔트로피이다.
설명
다음과 같은 표기법들이 쓰인다.
I(X,Y)=I(X:Y)=I(X;Y)=H(X:Y)
D(p∥q)는 p가 실제 분포일 때, 이에 대한 q라는 추정이 얼마나 좋지 않은지를 나타낸다. 따라서 I(X,Y)=D(PX,Y∥PXPY)는 PX,Y가 실제 분포일 때, PXPY라는 가정(X와 Y는 독립이다)이 얼마나 안좋은지를 말해준다.
I(X,Y)는 X와 Y가 독립에 가까울수록 작은 값을 가지므로, (X,Y)가 정규분포라면 X와 Y 사이의 상관관계를 평가하는 함수로 이해할 수 있다. 간단한 예로 (X,Y)가 평균이 (0,0)이고 공분산행렬이 Σ=[1ρρ1]인 정규분포라고 하자. 그러면 아래의 성질과 정규분포의 엔트로피 공식에 의해 X,Y의 상호정보는
I(X,Y)=H(X)+H(Y)−H(X,Y)=21ln(2πe)+21ln(2πe)−21ln[(2πe)2(1−ρ2)]=21ln(2πe)2−21ln[(2πe)2(1−ρ2)]=−21ln(1−ρ2)
따라서 X,Y가 독립이면 ρ=0이고 I(X,Y)=0이다. 반대로 X,Y가 강한 상관관계를 가지면, 그러니까 ρ=±1이면 I(X,Y)=∞가 된다.
성질
대칭성symmetry
I(X,Y)=I(Y,X)
정의에 의해 자명하다.
Non-negativity
I(X,Y)≥0
D(p∥q)≥0이므로 자명하다. 등호는 X와 Y가 독립일 때 성립한다.
결합 엔트로피 및 조건부 엔트로피와의 관계
I(X,Y)=H(X)+H(Y)−H(X,Y)=H(X)−H(X∣Y)=H(Y)−H(Y∣X)=H(X,Y)−H(X∣Y)−H(Y∣X)
여기서 H(X)는 엔트로피 H(X,Y)는 결합 엔트로피, H(X∣Y)는 조건부 엔트로피이다.