logo

古典情報理論における条件付きエントロピーとは?

古典情報理論における条件付きエントロピーとは?

양자정보이론
[ 펼치기 · 접기 ]

ビルドアップ1 2

離散確率変数 $X$とその確率質量関数 $p(x)$において、$X$のエントロピー $H(X)$は以下のように定義されます。

$$ H(X) = - \sum_{i} p(x_{i}) \log_{2}p(x_{i}) $$

同様に、$X, Y$の結合確率質量関数 $p(x,y)$における結合エントロピー $H(X, Y)$は以下のように定義されます。

$$ H(X, Y) = - \sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i}, y_{j}) $$

すると、$Y = y_{j}$の時の条件付き確率 $p(x_{i} | y_{j})$について$H(X | Y=y_{j})$は以下のように定義できるでしょう。

$$ \begin{equation} H(X | Y=y_{j}) = - \sum_{i} p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \end{equation} $$

自然に、$H(X | Y)$を全ての$y_{j}$における$H(X | Y=y_{j})$の期待値として定義できます。これを条件付きエントロピーと呼びましょう。

$$ \begin{equation} \begin{aligned} H(X | Y) &:= \sum_{j} p(y_{j})H(X | Y=y_{j}) \\ &= -\sum_{i, j} p(y_{j})p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \\ &= -\sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i} | y_{j}) \\ \end{aligned} \end{equation} $$

定義

離散確率変数 $X, Y$に対して、条件付きエントロピーconditional entropyは以下のように定義します。

$$ \begin{equation} H(X | Y) = -\sum_{i, j} p(x_{i}, y_{j}) \log_{2}p(x_{i} | y_{j}) \end{equation} $$

連続確率変数の場合、

$$ H(X|Y) = - \int_{-\infty}^{\infty}p(x,y)\log_{2}p(x|y)dxdy $$

説明

条件付きエントロピーの定義を$(3)$として最初に接すると、なぜ$p(x|y)$ではなく$p(x,y)$を掛けるのか理解しにくいかもしれません。$(1)$の期待値として定義されていると考えれば、$(3)$の式を納得しやすくなります。つまり、条件付きエントロピーは条件付き確率の情報量 $-\log_{2}p(x | y)$の期待値です。

性質

$$ H(X | Y) = H(X, Y) - H(Y) $$

$(2)$から直接得られます。

$$ \begin{align*} H(X | Y) &= - \sum_{i, j} p(y_{j})p(x_{i} | y_{j}) \log_{2}p(x_{i} | y_{j}) \\ &= - \sum_{i, j} p(x_{i}, y_{j}) \log_{2} \dfrac{p(x_{i}, y_{j})}{p(y_{j})} \\ &= - \sum_{i, j} p(x_{i}, y_{j}) \log_{2} p(x_{i}, y_{j}) + \sum_{i, j} p(x_{i}, y_{j}) \log_{2} p(y_{j}) \\ &= H(X, Y) + \sum_{j} \left( \sum_{i} p(x_{i}, y_{j}) \right) \log_{2} p(y_{j}) \\ &= H(X, Y) + \sum_{j} p(y_{j}) \log_{2} p(y_{j}) \\ &= H(X, Y) - H(Y) \end{align*} $$

展開すると$H(X, Y) = H(X | Y) + H(Y)$になりますが、エントロピーは確率のログなので、積が和に変わったと受け入れても良いでしょう。


  1. Stephen M. Barnett, Quantum Information (2009), p12 ↩︎

  2. 김영훈·허재성, 양자 정보 이론 (2020), p248-250 ↩︎