交差エントロピー
Contents
交差エントロピー
交差エントロピー (英:cross entropy) とは、二つの確率分布 $p,q$ の間に定義される尺度であり、$q$ に応じた情報量の表現を使って、$p$ の情報エントロピーを表そうとした場合の期待値を表す。KL情報量が非負であることから、$p=q$ となる時に最も小さくなる。
\[ \begin{aligned} H(p,q) &= H(p,p) + D_\text{KL}(p\parallel q) \cr &= \sum_i p_i(-\log q_i) \cr \end{aligned} \]