カルバック・ライブラー情報量
カルバック・ライブラー情報量 (英:Kullback–Leibler divergence, KL divergence) とは、異なる二つの確率分布から得られる情報量の差の期待値のこと。双対エントロピー (英:relative entropy) とも呼ばれる。p,q を確率質量関数とするとき、p の q に対するカルバック・ライブラー情報量は、次式で定義される。
DKL(p∥q)=i∑p(xi)logq(xi)p(xi)=i∑p(xi)(Iq(xi)−Ip(xi))=i∑p(xi)Iq(xi)−i∑p(xi)Ip(xi)=H(p,q)−H(p,p)
また、KL情報量は非対称であるため。DKL(p∥q) と DKL(q∥p) は一致しない。
ギブスの不等式
ギブスの不等式 (英:Gibbs' inequality) とは、二つの確率分布の間に成立する不等式のこと。確率質量関数 p,q が与えられたとき、次の不等式が成り立つ。
−i∑pilogpi≤−i∑pilogqi
ギブスの不等式の証明:
次式より対数関数の二階導関数が常に非正であることから、対数関数は上に凸な関数である。
(logx)′′=(xlnb1)′=−x2lnb1
よって −logbx は凸関数であることから、イェンセンの不等式により、
i∑pi[−logpiqi]i∑pi((−logqi)−(−logpi))i∑pi(−logqi)−i∑pi(−logpi)≥−logi∑pipiqi≥−logi∑qi≥−log1(−i∑pilogqi)−(−i∑pilogpi)≥0−i∑pilogqi≥−i∑pilogpi∴−i∑pilogpi≤−i∑pilogqi
KL情報量の非負性
KL情報量は常に非負である性質を持つ。
DKL(p∥q)≥0
KL情報量の非負性の証明:
DKL(p∥q)=i∑p(xi)logq(xi)p(xi)=i∑p(xi)logp(xi)−i∑p(xi)logq(xi)
ギブスの不等式により、
−i∑p(xi)logp(xi)i∑p(xi)logp(xi)≤−i∑p(xi)logq(xi)≥i∑p(xi)logq(xi)i∑p(xi)logp(xi)−i∑p(xi)logq(xi)≥0∴DKL(p∥q)≥0
関連記事