blue271828's misc :-)

カルバック・ライブラー情報量

カルバック・ライブラー情報量

カルバック・ライブラー情報量 (英:Kullback–Leibler divergence, KL divergence) とは、異なる二つの確率分布から得られる情報量の差の期待値のこと。双対エントロピー (英:relative entropy) とも呼ばれる。p,qp,q を確率質量関数とするとき、ppqq に対するカルバック・ライブラー情報量は、次式で定義される。

DKL(pq)=ip(xi)logp(xi)q(xi)=ip(xi)(Iq(xi)Ip(xi))=ip(xi)Iq(xi)ip(xi)Ip(xi)=H(p,q)H(p,p) \begin{aligned} D_\text{KL}(p\parallel q) &= \sum_{i} p(x_i)\log\frac{p(x_i)}{q(x_i)} \cr &= \sum_{i} p(x_i)(I_q(x_i)-I_p(x_i)) \cr &= \sum_{i} p(x_i)I_q(x_i) - \sum_{i} p(x_i)I_p(x_i) \cr &= H(p,q) - H(p,p) \end{aligned}

また、KL情報量は非対称であるため。DKL(pq)D_\text{KL}(p\parallel q)DKL(qp)D_\text{KL}(q\parallel p) は一致しない。

ギブスの不等式

ギブスの不等式 (英:Gibbs' inequality) とは、二つの確率分布の間に成立する不等式のこと。確率質量関数 p,qp,q が与えられたとき、次の不等式が成り立つ。

ipilogpiipilogqi -\sum_{i}p_i\log p_i \le -\sum_{i}p_i\log q_i


ギブスの不等式の証明:

次式より対数関数の二階導関数が常に非正であることから、対数関数は上に凸な関数である。

(logx)=(1xlnb)=1x2lnb \begin{aligned} (\log x)^{\prime\prime} &= \left(\frac{1}{x\ln b}\right)^\prime \cr &= -\frac{1}{x^2\ln b} \cr \end{aligned}

よって logbx-\log_b x は凸関数であることから、イェンセンの不等式により、

ipi[logqipi]logipiqipiipi((logqi)(logpi))logiqiipi(logqi)ipi(logpi)log1(ipilogqi)(ipilogpi)0ipilogqiipilogpiipilogpiipilogqi \begin{gathered} \begin{aligned} \sum_{i}p_i\left[-\log\frac{q_i}{p_i}\right] &\ge -\log\sum_i p_i\frac{q_i}{p_i} \cr \sum_{i}p_i\big((-\log q_i\big)-(-\log p_i)\big) &\ge -\log\sum_i q_i \cr \sum_{i}p_i(-\log q_i) - \sum_{i}p_i(-\log p_i) &\ge -\log 1 \cr \end{aligned} \cr \cr \left(-\sum_{i}p_i\log q_i\right) - \left(-\sum_{i}p_i\log p_i\right) \ge 0 \cr -\sum_{i}p_i\log q_i \ge -\sum_{i}p_i\log p_i \cr \cr \therefore -\sum_{i}p_i\log p_i \le -\sum_{i}p_i\log q_i \end{gathered}

KL情報量の非負性

KL情報量は常に非負である性質を持つ。

DKL(pq)0 D_\text{KL}(p\parallel q) \ge 0


KL情報量の非負性の証明:

DKL(pq)=ip(xi)logp(xi)q(xi)=ip(xi)logp(xi)ip(xi)logq(xi) \begin{aligned} D_\text{KL}(p\parallel q) &= \sum_{i} p(x_i)\log\frac{p(x_i)}{q(x_i)} \cr &= \sum_{i} p(x_i)\log p(x_i) - \sum_{i} p(x_i)\log q(x_i) \cr \end{aligned}

ギブスの不等式により、

ip(xi)logp(xi)ip(xi)logq(xi)ip(xi)logp(xi)ip(xi)logq(xi)ip(xi)logp(xi)ip(xi)logq(xi)0DKL(pq)0 \begin{gathered} \begin{aligned} -\sum_{i} p(x_i)\log p(x_i) &\le -\sum_{i} p(x_i)\log q(x_i) \cr \sum_{i} p(x_i)\log p(x_i) &\ge \sum_{i} p(x_i)\log q(x_i) \cr \end{aligned} \cr \cr \sum_{i} p(x_i)\log p(x_i) - \sum_{i} p(x_i)\log q(x_i) \ge 0 \cr \cr \therefore D_\text{KL}(p\parallel q) \ge 0 \end{gathered}

関連記事

Tags

#Ansible (3) #Bash (1) #Docker (1) #Git (2) #Hugo (2) #Molecule (1) #Python (1) #WSLtty (1) #アルゴリズム (4) #ビジネス用語 (1) #プログラミング (1) #位相空間論 (8) #初等数学 (20) #初等関数 (1) #実解析 (1) #幾何学 (3) #微分積分学 (18) #情報理論 (4) #抽象代数学 (14) #数理モデル (2) #数理論理学 (21) #機械学習 (3) #正規表現 (1) #測度論 (3) #特殊関数 (4) #確率論 (18) #組合せ論 (5) #統計学 (12) #線型代数学 (18) #複素解析学 (4) #解析学 (15) #論理学 (6) #順序集合論 (9)