logo

고전정보이론에서 조건부 엔트로피란? 📂양자정보이론

고전정보이론에서 조건부 엔트로피란?

양자정보이론
[ 펼치기 · 접기 ]

빌드업1 2

이산확률변수 XX와 이의 확률질량함수 p(x)p(x)에 대해서 XX엔트로피 H(X)H(X)는 다음과 같이 정의된다.

H(X)=ip(xi)log2p(xi) H(X) = - \sum_{i} p(x_{i}) \log_{2}p(x_{i})

비슷하게 X,YX, Y결합 확률질량함수 p(x,y)p(x,y)에 대해서 결합 엔트로피 H(X,Y)H(X, Y)는 다음과 같이 정의된다.

H(X,Y)=i,jp(xi,yj)log2p(xi,yj) H(X, Y) = - \sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i}, y_{j})

그러면 Y=yjY = y_{j}일 때의 조건부 확률 p(xiyj)p(x_{i} | y_{j})에 대해서 H(XY=yj)H(X | Y=y_{j})를 다음과 같이 정의할 수 있을 것이다.

H(XY=yj)=ip(xiyj)log2p(xiyj) \begin{equation} H(X | Y=y_{j}) = - \sum_{i} p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \end{equation}

그러면 자연스럽게 H(XY)H(X | Y)를 다음과 같이 모든 yjy_{j}에 대한 H(XY=yj)H(X | Y=y_{j})의 기댓값으로 정의할 수 있다. 이를 조건부 엔트로피라 하자.

H(XY):=jp(yj)H(XY=yj)=i,jp(yj)p(xiyj)log2p(xiyj)=i,jp(xi,yj)log2p(xiyj) \begin{equation} \begin{aligned} H(X | Y) &:= \sum_{j} p(y_{j})H(X | Y=y_{j}) \\ &= -\sum_{i, j} p(y_{j})p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \\ &= -\sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i} | y_{j}) \\ \end{aligned} \end{equation}

정의

이산확률변수 X,YX, Y에 대해서, 조건부 엔트로피conditional entropy를 다음과 같이 정의한다.

H(XY)=i,jp(xi,yj)log2p(xiyj) \begin{equation} H(X | Y) = -\sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i} | y_{j}) \end{equation}

연속확률변수라면,

H(XY)=p(x,y)log2p(xy)dxdy H(X|Y) = - \int_{-\infty}^{\infty}p(x,y)\log_{2}p(x|y)dxdy

설명

조건부 엔트로피의 정의를 (3)(3)으로 처음 접하면 왜 p(xy)p(x|y)가 아니라 p(x,y)p(x,y)를 곱하는 건지 이해하기 어려울거다. (1)(1)의 기댓값으로 정의되는거라고 생각하면 (3)(3)의 수식을 납득하기 쉬울 것이다. 다시 말해서, 조건부 엔트로피란 조건부 확률의 정보 log2p(xy)-\log_{2}p(x | y)의 기댓값이다.

성질

H(XY)=H(X,Y)H(Y) H(X | Y) = H(X, Y) - H(Y)

(2)(2)로부터 바로 얻을 수 있다.

H(XY)=i,jp(yj)p(xiyj)log2p(xiyj)=i,jp(xi,yj)log2p(xi,yj)p(yj)=i,jp(xi,yj)log2p(xi,yj)+i,jp(xi,yj)log2p(yj)=H(X,Y)+j(ip(xi,yj))log2p(yj)=H(X,Y)+jp(yj)log2p(yj)=H(X,Y)H(Y) \begin{align*} H(X | Y) &= - \sum_{i, j} p(y_{j})p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \\ &= - \sum_{i, j} p(x_{i}, y_{j}) \log_{2} \dfrac{p(x_{i}, y_{j})}{p(y_{j})} \\ &= - \sum_{i, j} p(x_{i}, y_{j}) \log_{2} p(x_{i}, y_{j}) + \sum_{i, j} p(x_{i}, y_{j}) \log_{2} p(y_{j}) \\ &= H(X, Y) + \sum_{j} \left( \sum_{i} p(x_{i}, y_{j}) \right) \log_{2} p(y_{j}) \\ &= H(X, Y) + \sum_{j} p(y_{j}) \log_{2} p(y_{j}) \\ &= H(X, Y) - H(Y) \end{align*}

이항하면 H(X,Y)=H(XY)+H(Y)H(X, Y) = H(X | Y) + H(Y)인데 엔트로피는 확률에 로그를 씌운 것이니 p(x,y)=p(xy)p(y)p(x, y) = p(x | y) p(y)에서 곱이 합으로 바뀌었다고 받아들여도 좋다.


  1. Stephen M. Barnett, Quantum Information (2009), p12 ↩︎

  2. 김영훈·허재성, 양자 정보 이론 (2020), p248-250 ↩︎