blue271828's misc :-)

期待値

期待値

期待値 (expected value) とは、確率変数全ての値に確率の重みをつけた加重算術平均のこと。

E(X(ω))=ΩX(ω) dPr(ω)(ωΩ) E(X(\omega)) = \int_\varOmega X(\omega)~d\Pr(\omega) \quad (\omega\in\varOmega)


離散型確率変数の期待値:

確率変数 XX が離散型であるとき、XX の期待値 E(X)E(X) は、

E(X)=xxP(X=x) E(X) = \sum_x x P(X=x)


連続型確率変数の期待値:

確率変数 XX が連続型であるとき、XX の期待値 E(X)E(X) は、

E(X)=xp(x) dx E(X) = \int_{-\infty}^\infty xp(x)~dx

期待値の諸定理

(E1):E(X+a)=E(X)+a \begin{aligned} \text{(E1)} &: E(X+a) = E(X) + a \\ \end{aligned}

(E1)\bold{(E1)} の導出:

E(X+a)E(X+a) は、確率変数 XX の値に定数 aa を加えることを表す。

XX が離散確率変数の場合:

E(X+a)=x(x+a)P(x)=xxP(x)+xaP(x)=xxP(x)+axP(x)=E(X)+aE(X+a)=E(X)+a \begin{aligned} E(X+a) &= \sum_x(x+a)P(x) \\ &= \sum_x xP(x) + \sum_xaP(x) \\ &= \sum_x xP(x) + a\sum_xP(x) \\ &= E(X) + a \cr \\ \therefore E(X+a) &= E(X) + a \end{aligned}

XX が連続確率変数の場合:

E(X+a)=(x+a)p(x) dx=xp(x) dx+ap(x) dx=xp(x) dx+ap(x) dx=E(X)+aE(X+a)=E(X)+a \begin{aligned} E(X+a) &= \int (x+a)p(x)~dx \\ &= \int xp(x)~dx + \int ap(x)~dx \\ &= \int xp(x)~dx + a\int p(x)~dx \\ &= E(X) + a \\ \\ \therefore E(X+a) &= E(X) + a \end{aligned}

期待値の線型性

線型性に必要な以下二つの性質を満たすため、期待値は線型性を持つ。

加法性:E(X+Y)=E(X)+E(Y)斉一次性:E(aX)=aE(X) \begin{aligned} \text{加法性} &: E(X+Y) = E(X)+E(Y) \\ \text{斉一次性} &: E(aX) = aE(X) \end{aligned}


期待値の加法性の証明:

E(X+Y)E(X+Y) は確率変数 X,YX,Y の和の期待値を表し、個々の確率変数の値 x,yx,y の生起する確率は x,yx,y の同時確率となるため、

X,YX,Y が離散確率変数の場合:

E(X+Y)=xy(x+y)P(x,y)=xyxP(x,y)+xyyP(x,y)=xyxP(xy)P(y)+xyyP(yx)P(x)=xxP(x)+yyP(y)全確率の法則により=E(X)+E(Y)E(X+Y)=E(X)+E(Y) \begin{aligned} E(X+Y) &= \sum_x\sum_y (x+y)P(x,y) \\ &= \sum_x\sum_y xP(x,y) + \sum_x\sum_y yP(x,y) \\ &= \sum_x\sum_y xP(x\mid y)P(y) + \sum_x\sum_y yP(y\mid x)P(x) \\ &= \sum_x xP(x) + \sum_y yP(y) \quad \because \text{全確率の法則により} \\ &= E(X) + E(Y) \\ \\ \therefore E(X+Y) &= E(X) + E(Y) \end{aligned}

X,YX,Y が連続確率変数の場合:

E(X+Y)=(x+y)p(x,y) dxdy=xp(x,y) dxdy+yp(x,y) dxdy=xp(xy)p(y) dxdy+yp(yx)p(x) dxdy=xp(x) dx+yp(y) dy全確率の法則により=E(X)+E(Y)E(X+Y)=E(X)+E(Y) \begin{aligned} E(X+Y) &= \iint (x+y)p(x,y)~dxdy \\ &= \iint xp(x,y)~dxdy + \iint yp(x,y)~dxdy \\ &= \iint xp(x\mid y)p(y)~dxdy + \iint yp(y\mid x)p(x)~dxdy \\ &= \int xp(x)~dx + \int yp(y)~dy \quad \because \text{全確率の法則により} \\ &= E(X) + E(Y) \\ \\ \therefore E(X+Y) &= E(X) + E(Y) \end{aligned}


期待値の斉一次性の証明:

E[aX]E[aX] は、確率変数 XX の値に定数 aa を掛けることを意味する。

XX が離散確率変数の場合:

E(aX)=xaxP(x)=axxP(x)=aE(X)E(aX)=aE(X) \begin{aligned} E(aX) &= \sum_x ax P(x) \\ &= a\sum_x x P(x) \\ &= aE(X) \\ \\ \therefore E(aX) &= aE(X) \end{aligned}

XX が連続確率変数の場合:

E(aX)=axp(x) dx=axp(x) dx=aE(X)E(aX)=aE(X) \begin{aligned} E(aX) &= \int axp(x)~dx \\ &= a\int xp(x)~dx \\ &= aE(X) \cr \cr \therefore E(aX) &= aE(X) \end{aligned}

積の期待値と期待値の積

二つの確率変数 X,YX,Y に対して、X,YX,Y が無相関であるとき、次式が成り立つ。独立であることは無相関でもあるので、X,YX,Y が独立である場合も成り立つ。

E(XY)=E(X)E(Y)(cov(X,Y)=0) E(XY) = E(X)E(Y) \quad (\mathrm{cov}(X,Y)=0)


無相関のとき積の期待値と期待値の積が等しいことを証明:

共分散の諸定理より、

cov(X,Y)=E(XY)E(X)E(Y)=0E(XY)=E(X)E(Y) \begin{aligned} \mathrm{cov}(X,Y) &= E(XY)-E(X)E(Y) \\ &= 0 \\ \\ \therefore E(XY) &= E(X)E(Y) \end{aligned}

関連記事

参考文献

基礎から学ぶ トラヒック理論
稲井 寛
森北出版
売り上げランキング: 43,700
統計学入門 (基礎統計学Ⅰ)

東京大学出版会
売り上げランキング: 3,194

Tags

#Ansible (3) #Bash (1) #Docker (1) #Git (2) #Hugo (2) #Molecule (1) #Python (1) #WSLtty (1) #アルゴリズム (4) #ビジネス用語 (1) #プログラミング (1) #位相空間論 (8) #初等数学 (20) #初等関数 (1) #実解析 (1) #幾何学 (3) #微分積分学 (18) #情報理論 (4) #抽象代数学 (14) #数理モデル (2) #数理論理学 (21) #機械学習 (3) #正規表現 (1) #測度論 (3) #特殊関数 (4) #確率論 (18) #組合せ論 (5) #統計学 (12) #線型代数学 (18) #複素解析学 (4) #解析学 (15) #論理学 (6) #順序集合論 (9)