相互情報量
Contents
相互情報量
相互情報量 (英:mutual information) とは、一方の事象を知ることでもう一方の事象の情報がどれだけ得られるかを表す量のこと。
\[ I(X;Y) := \sum_{x\in X}\sum_{y\in Y}\Pr(x,y)\lg\frac{\Pr(x,y)}{\Pr(x)\Pr(y)} \]
二つの事象が独立な場合:
二つの事象が独立である場合、その相互情報量は $0$ となる。これは一方の事象を知ったところで、他の事象の情報が一切得られないことを意味する。
\[ \begin{aligned} I(X;Y) &= \sum_{x\in X}\sum_{y\in Y}\Pr(x,y)\lg\frac{\Pr(x)\Pr(y)}{\Pr(x)\Pr(y)} \cr &= \sum_{x\in X}\sum_{y\in Y}\Pr(x,y)\lg 1 \cr &= 0 \end{aligned} \]