【徹底解説】大数の弱法則

本記事は「これなら分かる!はじめての数理統計学」シリーズに含まれます。

不適切な内容があれば,記事下のコメント欄またはお問い合わせフォームよりご連絡下さい。

目次

対数の弱法則

任意の正の実数$\varepsilon$に対して

\begin{align}
P\left( \left| \frac{1}{n} \sum_{i=1}^nX_i - \mu \geq \varepsilon \right| \right) \rightarrow 0 \quad (n\rightarrow \infty)
\end{align}

ただし,$X_i\;(i=1,2,\ldots,n)$は同じ分布に従う独立な確率変数であり,$E[X_i]=\mu$とおいた。

多くの人がここら辺から統計学が嫌になってくるのではないでしょうか。言っている意味が分からへんと。対数の弱法則は「サンプル数を多くしていくと標本平均が母平均に近づいていく」ことを示しています。統計学の基本である,サンプル数をとればとるほど(仮定している)真の値に近づいていくはずだという主張を表しているものとも捉えられます。

証明

チェビシェフの不等式を利用して証明を行なっていきます。$Z=\sum_{i=1}^nX_i / n$とおけば,確率変数の性質の第一項目と第二項目より,$E[Z]$は以下のようになります。

\begin{align}
E[Z] &= E\left[ \frac{\sum_{i=1}^nX_i}{n} \right]\\[0.7em]
&= \frac{E[X_1]}{n} + \frac{E[X_2]}{n} + \cdots + \frac{E[X_n]}{n}\\[0.7em]
&= n\frac{\mu}{n}\\[0.7em]
&= \mu
\end{align}

$V[Z]$についても同様です。$V[X_i]=\sigma^2$とおきます。

\begin{align}
V[Z] &= V\left[\frac{\sum_{i=1}^nX_i}{n}\right]\\[0.7em]
&= \frac{V[X_1]}{n^2} + \frac{V[X_2]}{n^2} + \cdots + \frac{V[X_n]}{n^2}\\[0.7em]
&= \frac{n\sigma^2}{n^2}\\[0.7em]
&= \frac{\sigma^2}{n}
\end{align}

さて,チェビシェフの不等式に代入していきましょう。

\begin{align}
P\left( \left| \frac{1}{n} \sum_{i=1}^nX_i - \mu \geq \epsilon \right| \right) \leq \frac{\sigma^2}{n\epsilon^2}
\end{align}

右辺は$n \rightarrow \infty$のときに$0$に近づきますから,大数の弱法則が成り立つことを示せました。

補足

大数の弱法則は期待値の存在を仮定しています。それゆえ,期待値が存在しないコーシー分布等では大数の法則が成り立ちません。

参考文献

本稿の執筆にあたり参考にした文献は,以下でリストアップしております。

シェアはこちらからお願いします!

コメント

コメントする

※ Please enter your comments in Japanese to distinguish from spam.

目次