条件付きエントロピー
📂確率論条件付きエントロピー
定義
確率変数 X1,⋯,Xn の結合確率質量関数 p または結合確率密度関数 f が与えられているとする。H(X1,⋯,Xn∣Xk) をXk が与えられている場合の X1,⋯,Xnの条件付きエントロピーconditional Entropyという。
離散
H(X1,⋯,Xn∣Xk):=−x1∑⋯xn∑p(x1,⋯,xn)log2p(xk)p(x1,⋯,xn)
連続
H(X1,⋯,Xn∣Xk):=−∫R⋯∫Rf(x1,⋯,xn)log2f(xk)f(x1,⋯,xn)dx1⋯dxn
- 表現がめちゃくちゃで正確には書いてないけど、X1⋯Xnの間にはXkがない。でも、x1,⋯,xnの間にはxkがある。
定理
- [1] 二つの確率変数X,Yに対して以下が成り立つ。
H(X,Y)=H(X)+H(Y∣X)
特に、X と Y が独立であれば
H(X∣Y)=H(X)H(Y∣X)=H(Y)
- [2] チェーンルール:
H(X1,⋯,Xn)==H(X1)+H(Xk∣X1,⋯,Xk−1)H(X1)+H(X2∣X1)+H(X3∣X1,X2)+⋯+H(Xn)+H(Xk∣X1,⋯,Xn−1)
説明
言葉通り、ジョイントエントロピーから追加的な条件が与えられた時のエントロピーだ。直感的に式を理解すると
H(Y∣X)=H(X,Y)−H(X)
は元々のH(X,Y)の無秩序さからXの情報が提供されてH(X)の不確実性が解消されたものと見ることができる。チェーンルールchain ruleはその一般化だ。