blue271828's misc :-)

二項分布

二項分布

二項分布 (英:binomial distribution) とは、互いに独立で同一なベルヌーイ試行を $n$ 回行ったときの成功回数 $X$ が従う離散確率分布のこと。 \( X\sim\operatorname{Bin}(n,p) \)

確率質量関数

確率 $p$ で成功するベルヌー試行を $n$ 回行ったとき、確率変数 $X$ の値となる成功回数が $k$ のときの確率は、

\[ f_X(k; n,p) = \binom n k p^k(1-p)^{n-k} \]


二項分布の確率質量関数の導出:

$n$ 回中 $k$ 回成功する組合せは、

\[ \binom n k \]

$n$ 回中 $k$ 回のみ成功する組合せそれぞれが発生する確率は、成功する確率 $p$ が $k$ 個の試行で同時に発生する確率と、失敗する確率 $1-p$ が $n-k$ 個の思考が同時に発生する確率が同時に起こる確率に等しい。

\[ p^k(1-p)^{n-k} \]

よって、二項分布の確率質量関数は、

\[ \therefore f_X(k; n,p) = \binom n k p^k(1-p)^{n-k} \]


二項分布が確率分布であることの証明:

\[ \begin{aligned} \sum_{k=0}^n\binom n k p^k(1-p)^{n-k} &= (p+(1-p))^n \\ &= 1 \end{aligned} \]


二項分布の確率質量関数のグラフ:

binomial-distribution

Python 3

from scipy.stats import binom
import matplotlib.pyplot as plt

cases = [
    (40, .3), # n, p
    (80, .3),
    (80, .5),
]

plt.figure()
for n,p in cases:
    x = range(n)
    dist = binom.pmf(x,n,p)
    plt.plot(x, dist, label="n={}, p={}".format(n,p))

plt.title("Probability mass function of binomial distribution")
plt.xlabel("Number of successes in n trials".format(n))
plt.ylabel("Probability".format(n))
plt.legend()
plt.show()

累積分布関数

\[ \begin{aligned} F_X(x; n,p) &= \sum_{k=0}^x f_X(k; n,p)\cr &= \sum_{k=0}^x\binom n k p^k(1-p)^{n-k} \cr \end{aligned} \]

cdf

Python 3

from scipy.stats import binom
import matplotlib.pyplot as plt

cases = [
    (40, .3),
    (80, .3),
    (80, .5),
]

plt.figure()
for n,p in cases:
    x = range(n)
    dist = binom.cdf(x,n,p)
    plt.plot(x, dist, label="n={}, p={}".format(n,p))

plt.title("Cumulative distribution function of binomial distribution")
plt.xlabel("Number of successes in n trials".format(n))
plt.ylabel("Probability".format(n))
plt.legend()
plt.show()

期待値

二項分布 $\operatorname{Bin}(n,p)$ に従う確率変数 $X$ の期待値は、

\[ E[X] = np \quad (X\sim\operatorname{Bin}(n,p)) \]


期待値の導出: \( \begin{aligned} E[X] &= \sum_{k=0}^n kf_X(k; n,p) \cr &= \sum_{k=0}^n k\binom n k p^k(1-p)^{n-k} \cr \end{aligned} \)

$k=0$ のとき、$kf_X(k\mid n,p) = 0$ となることから、

\[ \begin{aligned} E[X] &= \sum_{k=1}^n k\binom n k p^k(1-p)^{n-k} \cr &= n\sum_{k=1}^n\binom {n-1} {k-1}p^k(1-p)^{n-k} \cr &= n\sum_{k=0}^{n-1}\binom {n-1} k p^{k+1}(1-p)^{n-(k+1)} \cr &= np\sum_{k=0}^{n-1}\binom {n-1} k p^{k}(1-p)^{(n-1)-k} \cr &= np \cr \cr \therefore E[X] &= np \end{aligned} \]

分散

二項分布 $\operatorname{Bin}(n,p)$ に従う確率変数 $X$ の分散は、

\[ \operatorname{V}[X] = np(1-p) \quad (X\sim\operatorname{Bin}(n,p)) \]


分散の導出:

二項分布の期待値と、期待値の諸定理より、

\[ \begin{aligned} V[X] &= E[X^2] - E[X]^2 \cr &= \sum_{k=0}^nk^2f_X(k\mid n,p) - (np)^2 \cr \end{aligned} \]

$k=0$ のとき、$k^2f_X(k;n,p) = 0$ となることから、

\[ \begin{aligned} V[X] &= \sum_{k=1}^nk^2f_X(k; n,p) - (np)^2 \cr &= \sum_{k=1}^nk^2\binom n kp^k(1-p)^{n-k} - (np)^2 \cr &= n\sum_{k=1}^n k\binom {n-1} {k-1}p^k(1-p)^{n-k} - (np)^2 \cr &= n\sum_{k=0}^{n-1}k\binom {n-1} k p^{k+1}(1-p)^{n-(k+1)} - (np)^2 \cr &= np\sum_{k=0}^{n-1}(k+1)\binom {n-1} k p^{k}(1-p)^{(n-1)-k} - (np)^2 \cr &= np\left[\sum_{k=0}^{n-1}k\binom {n-1} k p^{k}(1-p)^{(n-1)-k} + \sum_{k=0}^{n-1}\binom {n-1} k p^{k}(1-p)^{(n-1)-k}\right] - (np)^2 \cr &= np\left[(n-1)p + 1\right] - (np)^2 \cr &= np(1-p) \cr \cr \therefore V[X] &= np(1-p) \end{aligned} \]

関連記事

参考文献

基礎から学ぶ トラヒック理論
稲井 寛
森北出版
売り上げランキング: 43,700
統計学入門 (基礎統計学Ⅰ)

東京大学出版会
売り上げランキング: 3,194

Tags

#Ansible (3) #Bash (1) #Docker (1) #Git (2) #Hugo (2) #Molecule (1) #Python (1) #WSLtty (1) #アルゴリズム (4) #ビジネス用語 (1) #プログラミング (1) #位相空間論 (8) #初等数学 (20) #初等関数 (1) #実解析 (1) #幾何学 (3) #微分積分学 (18) #情報理論 (4) #抽象代数学 (14) #数理モデル (2) #数理論理学 (21) #機械学習 (3) #正規表現 (1) #測度論 (3) #特殊関数 (4) #確率論 (18) #組合せ論 (5) #統計学 (12) #線型代数学 (18) #複素解析学 (4) #解析学 (15) #論理学 (6) #順序集合論 (9)