結合エントロピー
📂確率論結合エントロピー
定義
確率変数 X1,⋯,Xn の結合確率質量関数 p または結合確率密度関数 f が与えられているとする。
離散
H(X1,⋯,Xn):=−x1∑⋯xn∑p(x1,⋯,xn)log2p(x1,⋯,xn)
連続
H(X1,⋯,Xn):=−∫R⋯∫Rf(x1,⋯,xn)log2f(x1,⋯,xn)dx1⋯dxn
定理
ジョイントエントロピーは以下のような性質を持っている。
- [1] 不等式:
0≤k=1⋯nmax{H(Xk)}≤H(X1,⋯,Xn)≤k=1∑nH(Xk)
もし X1,⋯,Xn が相互に独立ならば、最後の不等式は等式になる。つまり、
H(X1,⋯,Xn)=k=1∑nH(Xk)
- [2] 対称性:
H(X,Y)=H(Y,X)
説明
k=1⋯nmax{H(Xk)}≤H(X1,⋯,Xn)
定義で注目すべき点は、確率変数が増えるほど、エントロピーが増加することができるが、減少することはできないということだ。これは、確率変数が増えると、不規則な度合いも大きくなるという直感とも一致する。
ジョイントエントロピーの意味は、単にエントロピーの拡張に過ぎない。しかし、その定義はよく理解しておく必要がある。確率変数の期待値などを論じるときと同様に定義する方法が、条件付きエントロピーに自然に繋がる理由は、まさにlog2 にあるからだ。