情報量とは
情報量 (英:information content) とは、ある事象が起きた際に、それがどれだけ起こりにくいかを表す尺度のこと。自己情報量 (英:self-information) とも呼ばれる。確率空間 (Ω,F,P) において、ある事象 E∈F が発生する確率を P(E) とすると、E が発生した際に得られる情報量 IP(E) は次式で表される。
IP(E):=−logP(E)
情報量の加法性
E1 と E2 が独立な事象の場合、「E1 も E2 も起こる」事象 E の情報量 IP(E) は、E1 の情報量 IP(E1)と E2 の情報量 IP(E2) の和となる。
IP(E)=IP(E1)+IP(E2)
情報量の加法性の証明:
IP(E)∴IP(E)=−log(P(E1)P(E2))=−logP(E1)−logP(E2)=IP(E1)+IP(E2)=IP(E1)+IP(E2)
情報エントロピー
確率空間 (Ω,F,P) が与えられたとき、各事象 E∈F の情報量 IP(E) の期待値 H(P,P) を P の情報エントロピー (英:information entropy) 、もしくはシャノンエントロピー (英:Shannon entropy) と呼ぶ。
H(P,P)=E∈Ω∑P(E)IP(E)=−E∈Ω∑P(E)logP(E)
import numpy as np
def information_entropy(E, P, base=2):
return -sum(P(E)*(np.log(P(E))/np.log(base)))
関連記事
参考文献