logo

古典情報理論における条件付きエントロピーとは?

古典情報理論における条件付きエントロピーとは?

양자정보이론
[ 펼치기 · 접기 ]

ビルドアップ1 2

離散確率変数 XXとその確率質量関数 p(x)p(x)において、XXエントロピー H(X)H(X)は以下のように定義されます。

H(X)=ip(xi)log2p(xi) H(X) = - \sum_{i} p(x_{i}) \log_{2}p(x_{i})

同様に、X,YX, Y結合確率質量関数 p(x,y)p(x,y)における結合エントロピー H(X,Y)H(X, Y)は以下のように定義されます。

H(X,Y)=i,jp(xi,yj)log2p(xi,yj) H(X, Y) = - \sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i}, y_{j})

すると、Y=yjY = y_{j}の時の条件付き確率 p(xiyj)p(x_{i} | y_{j})についてH(XY=yj)H(X | Y=y_{j})は以下のように定義できるでしょう。

H(XY=yj)=ip(xiyj)log2p(xiyj) \begin{equation} H(X | Y=y_{j}) = - \sum_{i} p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \end{equation}

自然に、H(XY)H(X | Y)を全てのyjy_{j}におけるH(XY=yj)H(X | Y=y_{j})の期待値として定義できます。これを条件付きエントロピーと呼びましょう。

H(XY):=jp(yj)H(XY=yj)=i,jp(yj)p(xiyj)log2p(xiyj)=i,jp(xi,yj)log2p(xiyj) \begin{equation} \begin{aligned} H(X | Y) &:= \sum_{j} p(y_{j})H(X | Y=y_{j}) \\ &= -\sum_{i, j} p(y_{j})p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \\ &= -\sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i} | y_{j}) \\ \end{aligned} \end{equation}

定義

離散確率変数 X,YX, Yに対して、条件付きエントロピーconditional entropyは以下のように定義します。

H(XY)=i,jp(xi,yj)log2p(xiyj) \begin{equation} H(X | Y) = -\sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i} | y_{j}) \end{equation}

連続確率変数の場合、

H(XY)=p(x,y)log2p(xy)dxdy H(X|Y) = - \int_{-\infty}^{\infty}p(x,y)\log_{2}p(x|y)dxdy

説明

条件付きエントロピーの定義を(3)(3)として最初に接すると、なぜp(xy)p(x|y)ではなくp(x,y)p(x,y)を掛けるのか理解しにくいかもしれません。(1)(1)の期待値として定義されていると考えれば、(3)(3)の式を納得しやすくなります。つまり、条件付きエントロピーは条件付き確率の情報量 log2p(xy)-\log_{2}p(x | y)の期待値です。

性質

H(XY)=H(X,Y)H(Y) H(X | Y) = H(X, Y) - H(Y)

(2)(2)から直接得られます。

H(XY)=i,jp(yj)p(xiyj)log2p(xiyj)=i,jp(xi,yj)log2p(xi,yj)p(yj)=i,jp(xi,yj)log2p(xi,yj)+i,jp(xi,yj)log2p(yj)=H(X,Y)+j(ip(xi,yj))log2p(yj)=H(X,Y)+jp(yj)log2p(yj)=H(X,Y)H(Y) \begin{align*} H(X | Y) &= - \sum_{i, j} p(y_{j})p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \\ &= - \sum_{i, j} p(x_{i}, y_{j}) \log_{2} \dfrac{p(x_{i}, y_{j})}{p(y_{j})} \\ &= - \sum_{i, j} p(x_{i}, y_{j}) \log_{2} p(x_{i}, y_{j}) + \sum_{i, j} p(x_{i}, y_{j}) \log_{2} p(y_{j}) \\ &= H(X, Y) + \sum_{j} \left( \sum_{i} p(x_{i}, y_{j}) \right) \log_{2} p(y_{j}) \\ &= H(X, Y) + \sum_{j} p(y_{j}) \log_{2} p(y_{j}) \\ &= H(X, Y) - H(Y) \end{align*}

展開するとH(X,Y)=H(XY)+H(Y)H(X, Y) = H(X | Y) + H(Y)になりますが、エントロピーは確率のログなので、積が和に変わったと受け入れても良いでしょう。


  1. Stephen M. Barnett, Quantum Information (2009), p12 ↩︎

  2. 김영훈·허재성, 양자 정보 이론 (2020), p248-250 ↩︎