고전정보이론에서 조건부 엔트로피란?
📂양자정보이론고전정보이론에서 조건부 엔트로피란?
빌드업
이산확률변수 X와 이의 확률질량함수 p(x)에 대해서 X의 엔트로피 H(X)는 다음과 같이 정의된다.
H(X)=−i∑p(xi)log2p(xi)
비슷하게 X,Y의 결합 확률질량함수 p(x,y)에 대해서 결합 엔트로피 H(X,Y)는 다음과 같이 정의된다.
H(X,Y)=−i,j∑p(xi,yj)log2p(xi,yj)
그러면 Y=yj일 때의 조건부 확률 p(xi∣yj)에 대해서 H(X∣Y=yj)를 다음과 같이 정의할 수 있을 것이다.
H(X∣Y=yj)=−i∑p(xi∣yj)log2p(xi∣yj)
그러면 자연스럽게 H(X∣Y)를 다음과 같이 모든 yj에 대한 H(X∣Y=yj)의 기댓값으로 정의할 수 있다. 이를 조건부 엔트로피라 하자.
H(X∣Y):=j∑p(yj)H(X∣Y=yj)=−i,j∑p(yj)p(xi∣yj)log2p(xi∣yj)=−i,j∑p(xi,yj)log2p(xi∣yj)
정의
이산확률변수 X,Y에 대해서, 조건부 엔트로피conditional entropy를 다음과 같이 정의한다.
H(X∣Y)=−i,j∑p(xi,yj)log2p(xi∣yj)
연속확률변수라면,
H(X∣Y)=−∫−∞∞p(x,y)log2p(x∣y)dxdy
설명
조건부 엔트로피의 정의를 (3)으로 처음 접하면 왜 p(x∣y)가 아니라 p(x,y)를 곱하는 건지 이해하기 어려울거다. (1)의 기댓값으로 정의되는거라고 생각하면 (3)의 수식을 납득하기 쉬울 것이다. 다시 말해서, 조건부 엔트로피란 조건부 확률의 정보 −log2p(x∣y)의 기댓값이다.
성질
H(X∣Y)=H(X,Y)−H(Y)
(2)로부터 바로 얻을 수 있다.
H(X∣Y)=−i,j∑p(yj)p(xi∣yj)log2p(xi∣yj)=−i,j∑p(xi,yj)log2p(yj)p(xi,yj)=−i,j∑p(xi,yj)log2p(xi,yj)+i,j∑p(xi,yj)log2p(yj)=H(X,Y)+j∑(i∑p(xi,yj))log2p(yj)=H(X,Y)+j∑p(yj)log2p(yj)=H(X,Y)−H(Y)
이항하면 H(X,Y)=H(X∣Y)+H(Y)인데 엔트로피는 확률에 로그를 씌운 것이니 p(x,y)=p(x∣y)p(y)에서 곱이 합으로 바뀌었다고 받아들여도 좋다.