blue271828's misc :-)

期待値

期待値

期待値 (expected value) とは、確率変数全ての値に確率の重みをつけた加重算術平均のこと。

\[ E(X(\omega)) = \int_\varOmega X(\omega)~d\Pr(\omega) \quad (\omega\in\varOmega) \]


離散型確率変数の期待値:

確率変数 $X$ が離散型であるとき、$X$ の期待値 $E(X)$ は、

\[ E(X) = \sum_x x P(X=x) \]


連続型確率変数の期待値:

確率変数 $X$ が連続型であるとき、$X$ の期待値 $E(X)$ は、

\[ E(X) = \int_{-\infty}^\infty xp(x)~dx \]

期待値の諸定理

\[ \begin{aligned} \text{(E1)} &: E(X+a) = E(X) + a \\ \end{aligned} \]

$\bold{(E1)}$ の導出:

$E(X+a)$ は、確率変数 $X$ の値に定数 $a$ を加えることを表す。

$X$ が離散確率変数の場合:

\[ \begin{aligned} E(X+a) &= \sum_x(x+a)P(x) \\ &= \sum_x xP(x) + \sum_xaP(x) \\ &= \sum_x xP(x) + a\sum_xP(x) \\ &= E(X) + a \cr \\ \therefore E(X+a) &= E(X) + a \end{aligned} \]

$X$ が連続確率変数の場合:

\[ \begin{aligned} E(X+a) &= \int (x+a)p(x)~dx \\ &= \int xp(x)~dx + \int ap(x)~dx \\ &= \int xp(x)~dx + a\int p(x)~dx \\ &= E(X) + a \\ \\ \therefore E(X+a) &= E(X) + a \end{aligned} \]

期待値の線型性

線型性に必要な以下二つの性質を満たすため、期待値は線型性を持つ。

\[ \begin{aligned} \text{加法性} &: E(X+Y) = E(X)+E(Y) \\ \text{斉一次性} &: E(aX) = aE(X) \end{aligned} \]


期待値の加法性の証明:

$E(X+Y)$ は確率変数 $X,Y$ の和の期待値を表し、個々の確率変数の値 $x,y$ の生起する確率は $x,y$ の同時確率となるため、

$X,Y$ が離散確率変数の場合:

\[ \begin{aligned} E(X+Y) &= \sum_x\sum_y (x+y)P(x,y) \\ &= \sum_x\sum_y xP(x,y) + \sum_x\sum_y yP(x,y) \\ &= \sum_x\sum_y xP(x\mid y)P(y) + \sum_x\sum_y yP(y\mid x)P(x) \\ &= \sum_x xP(x) + \sum_y yP(y) \quad \because \text{全確率の法則により} \\ &= E(X) + E(Y) \\ \\ \therefore E(X+Y) &= E(X) + E(Y) \end{aligned} \]

$X,Y$ が連続確率変数の場合:

\[ \begin{aligned} E(X+Y) &= \iint (x+y)p(x,y)~dxdy \\ &= \iint xp(x,y)~dxdy + \iint yp(x,y)~dxdy \\ &= \iint xp(x\mid y)p(y)~dxdy + \iint yp(y\mid x)p(x)~dxdy \\ &= \int xp(x)~dx + \int yp(y)~dy \quad \because \text{全確率の法則により} \\ &= E(X) + E(Y) \\ \\ \therefore E(X+Y) &= E(X) + E(Y) \end{aligned} \]


期待値の斉一次性の証明:

$E[aX]$ は、確率変数 $X$ の値に定数 $a$ を掛けることを意味する。

$X$ が離散確率変数の場合:

\[ \begin{aligned} E(aX) &= \sum_x ax P(x) \\ &= a\sum_x x P(x) \\ &= aE(X) \\ \\ \therefore E(aX) &= aE(X) \end{aligned} \]

$X$ が連続確率変数の場合:

\[ \begin{aligned} E(aX) &= \int axp(x)~dx \\ &= a\int xp(x)~dx \\ &= aE(X) \cr \cr \therefore E(aX) &= aE(X) \end{aligned} \]

積の期待値と期待値の積

二つの確率変数 $X,Y$ に対して、$X,Y$ が無相関であるとき、次式が成り立つ。独立であることは無相関でもあるので、$X,Y$ が独立である場合も成り立つ。

\[ E(XY) = E(X)E(Y) \quad (\mathrm{cov}(X,Y)=0) \]


無相関のとき積の期待値と期待値の積が等しいことを証明:

共分散の諸定理より、

\[ \begin{aligned} \mathrm{cov}(X,Y) &= E(XY)-E(X)E(Y) \\ &= 0 \\ \\ \therefore E(XY) &= E(X)E(Y) \end{aligned} \]

関連記事

参考文献

基礎から学ぶ トラヒック理論
稲井 寛
森北出版
売り上げランキング: 43,700
統計学入門 (基礎統計学Ⅰ)

東京大学出版会
売り上げランキング: 3,194

Tags

#Ansible (3) #Bash (1) #Docker (1) #Git (2) #Hugo (2) #Molecule (1) #Python (1) #WSLtty (1) #アルゴリズム (4) #ビジネス用語 (1) #プログラミング (1) #位相空間論 (8) #初等数学 (20) #初等関数 (1) #実解析 (1) #幾何学 (3) #微分積分学 (18) #情報理論 (4) #抽象代数学 (14) #数理モデル (2) #数理論理学 (21) #機械学習 (3) #正規表現 (1) #測度論 (3) #特殊関数 (4) #確率論 (18) #組合せ論 (5) #統計学 (12) #線型代数学 (18) #複素解析学 (4) #解析学 (15) #論理学 (6) #順序集合論 (9)