【これなら分かる!】正規分布とは

zuka

こんにちは。
zuka(@beginaid)です。

本記事は「これなら分かる!はじめての数理統計学」シリーズに含まれます。

もし不適切な内容があれば,記事下のコメント欄又はお問い合わせフォームよりご連絡下さい。

正規分布

二項分布$\Bin (n, p)$において,$p$を一定に保ったまま$n$と$x$を大きくしていくと正規分布$\N (\mu, \sigma^2)$が得られます。直感的には,二項分布の連続バージョンが正規分布です。正規分布には再生性があります。ロードマップ中では,正規分布は二項分布とポアソン分布の極限に相当すると同時に,正規分布は「正規系」の源流となる分布です。以下では,$X \in \bbR$,$T \in \bbR$とします。

\begin{align}
f_{X}(x) &= \frac{1}{\sqrt{2\pi\sigma^2}}\exp\left\{ -\frac{1}{2\sigma^2} (x-\mu)^2 \right\} \\[0.7em]
M_{X}(t) &= \exp \left( \mu t + \frac{1}{2}\sigma^2t^2 \right) \\[0.7em]
E[X] &= \mu \\[0.7em]
V[X] &= \sigma^2
\end{align}

確率密度関数

正規分布の導出は,大きく分けて「二項分布の極限としての証明」と「ガウスによる証明」があります。

二項分布の極限としての証明

中心極限定理を根拠として行なっていきます。ある分布のサンプル数に関する極限を考えれば正規分布が出てくるはずだという発想に基づくのです。「ある分布」は何でもよいのですが,ここではシンプルな分布である二項分布を利用することにします。正規分布導出の流れは以下の通りです。

  1. 二項分布の$\log$をとる($g(x)$とおく)
  2. $g(x)$を$\mu$のまわりにテーラー展開する($x$は$\mu(=np)$の近くに多く存在する)
  3. 第3項以降は無視する(このレベルの近似することで正規分布が導出される)
  4. スターリングの近似を用いる
  5. 定数項を求める

ここで少しだけお気持ちを補足しておきます。まず,二項分布の対数を取るのは,積の形で記述された確率密度関数を扱う上では,対数領域で計算した方が簡単だからです。テーター展開が出てくるのは,$x$が$\mu$の近くにたくさん存在するという気落ちを近似に反映させたいからで,実際にテーラー展開の第3項以降は無視しています。

「なぜ第3項目以降なのか」というツッコミに対しては「そうするとうまくいくから」としか答えられません。逆に言えば,正規分布は$\mu$まわりのテーラー展開における第3項以降を無視した近似をした場合に導出されるとも言えます。スターリングの近似が出てくるのは,二項分布の確率関数に階乗の形が出てきているからです。最後に,正規分布が確率密度関数の定義を満たすように定数倍を調整すれば証明完了です。

ちなみに,二項分布の極限として正規分布を発見したのはド・モアブルと言われています。この発見をもとに,ラプラス変換でも知られているラプラスは離散変数に対する中心極限定理の厳密な証明を与えました。その後,チェビシェフやマルコフらが中心極限定理の一般的な場合への拡張を試み,連続変数に対する中心極限定理の厳密な証明はLindebergとLevyらによって与えられたとされています。正規分布の別名はガウス分布ですが,ガウスは天文学的な観点から正規分布を導出したことでも知られています。具体的には,測定誤差と微分方程式を利用して正規分布を導出しました。後ほど,ガウスによる正規分布の証明も紹介します。

早速,二項分布の極限としての正規分布を導出していきたいと思います。まずは,二項分布の対数をとったものを$g(x)$とおきます。

\begin{align}
g(x) &= \log {}_n C_{x} p^x q^{n-x} \\[0.7em]
&= \log \left\{ \frac{n!}{x! (n-x)!} p^x q^{n-x} \right\} \\[0.7em]
&= \log n! – \log x! – \log (n-x)! + x\log p + (n-x)\log q
\end{align}

続いて,$g(x)$を$\mu$のまわりにテーラー展開して第3項以降を無視します。

\begin{align}
g(x) &= g(\mu) + \frac{g'(\mu)}{1!} (x-\mu) + \frac{g^{”}(\mu)}{2!} (x-\mu)^2 + \cdots \\[0.7em]
&\simeq g(\mu) + \frac{g'(\mu)}{1!} (x-\mu) + \frac{g^{”}(\mu)}{2!} (x-\mu)^2
\end{align}

さて,ここで第3項以降を無視したテーラー展開による近似の式に登場している$g'(\mu)$と$g^{”}(\mu)$を求めたいと思います。そのために,$g(x)$をもう少し簡単な形で書き換えておきたいという気持ちになります。そこで,今回はスターリングの公式を利用して階乗をなくしておきましょう。

スターリングの近似(Stirling’s approximation)

$n >> 1$のとき

\begin{align}
\log n! \simeq n\log n – n
\end{align}

が成り立つ。

最終的にはサンプル数$n$が多い場合を考えたいのですから,スターリングの公式が成り立つものとしてOKです。

\begin{align}
g(x) &= \log n! – \log x! – \log (n-x)! + x\log p + (n-x)\log q \\[0.7em]
&\simeq (n\log n – n) – (x\log x – x) \notag \\[0.7em]
&\quad – \left\{ (n-x)\log(n-x) – (n-x) \right\} + x\log p + (n-x)\log q \\[0.7em]
&= n\log n – x\log x – (n-x)\log (n-x) + x\log p + (n-x) \log q
\end{align}

さて,まずは$g'(x)$と$g^{”}(x)$を求めていきましょう。

\begin{align}
g'(x) &= (-\log x – 1) – \left\{ -\log(n-x) + 1 \right\} + \log p – \log q \\[0.7em]
&= \log (n-x) – \log x + \log p – \log q \\[0.7em]
&= \log \frac{p(n-x)}{qx} \\[0.7em]
g^{”}(x) &= -\frac{1}{n-x} – \frac{1}{x} \\[0.7em]
&= -\frac{n}{x(n-x)}
\end{align}

したがって,$g'(\mu)$と$g^{”}(\mu)$は以下のようになります。

\begin{align}
g'(\mu) &= \log \frac{p(n-\mu)}{q\mu} \\[0.7em]
&= \log \frac{p(n-np)}{npq} \\[0.7em]
&= \log \frac{npq}{npq} \\[0.7em]
&= 0\\[0.7em]
g^{”}(x) &= -\frac{n}{\mu (n-\mu)} \\[0.7em]
&= -\frac{n}{np(n-np)} \\[0.7em]
&= -\frac{1}{npq} \\[0.7em]
&= -\frac{1}{\sigma^2}
\end{align}

以上より,テーラー展開による二項分布の近似式は以下のようになります。

\begin{align}
g(x) &= g(\mu) – \frac{1}{2\sigma^2} (x-\mu)^2\\[0.7em]
&= \log C + \log \exp \left\{ -\frac{1}{2\sigma^2} (x-\mu)^2 \right\} \\[0.7em]
&= \log C \exp \left\{ -\frac{1}{2\sigma^2} (x-\mu)^2 \right\}
\end{align}

ただし,$C=g(\mu)$であり,今回の場合は単なる定数です。正規分布の確率密度関数を$f(x;\mu, \sigma^2)$とおくと,

\begin{align}
g(x) &= \log f(x;\mu, \sigma^2) \\[0.7em]
&= \log C \exp \left\{ -\frac{1}{2\sigma^2} (x-\mu)^2 \right\} \\[0.7em]
\therefore f(x;\mu, \sigma^2) &= C \exp \left\{ -\frac{1}{2\sigma^2} (x-\mu)^2 \right\}
\end{align}

と表せますので,$C$を$f(x;\mu, \sigma^2)$が確率密度関数になるように定めれば証明完了です。つまり,積分して$1$になるように調整します。

\begin{align}
\int_{-\infty}^{\infty} C \exp \left\{ -\frac{1}{2\sigma^2}(x-\mu)^2\right\} dx &= 1
\end{align}

ここで,$e^{-x^2}$の形が出現しているため,ガウス積分に持ち込むことを考えます。

ガウス積分(Gaussian integral)

\begin{align}
\int_{-\infty}^{\infty} e^{-x^{2}} d x=\sqrt{\pi}
\end{align}

そのために,指数部分をまとめて$u$とおいてしまいましょう。

\begin{align}
u &= \frac{x – \mu}{\sqrt{2 \sigma^2}} \\[0.7em]
dx &= \sqrt{2 \sigma^2} du
\end{align}

結局,確率密度関数の定義を満たしているかの条件式以下のようになります。

\begin{align}
\int_{-\infty}^{\infty} C e^{-u^2} \sqrt{2 \sigma^2} du
&= \sqrt{2 \sigma^2} C \cdot \sqrt{\pi} \\[0.7em]
&= 1
\end{align}

したがって,定数部分が求められました。

\begin{align}
C &= \frac{1}{\sqrt{2\pi \sigma^2}}
\end{align}

以上をまとめると,

\begin{align}
f(x;\mu, \sigma^2)
&= \frac{1}{\sqrt{2\pi \sigma^2}} \exp \left\{ -\frac{1}{2\sigma^2}(x-\mu)^2\right\}
\end{align}

となり,見事正規分布の確率密度関数の導出が完了しました。

ガウスによる証明

ここまでは,二項分布の極限としての正規分布の側面です。さて,ここからはガウスによる正規分布の確率密度関数の別証明を紹介しておきます。ガウスによる導出では,以下の2つの仮定をおきます。

  1. 絶対値の等しい正負の誤差は平等に生じる
  2. ある値より大きな誤差は起こらない

この2つの仮定はガウスの公理としても知られています。これらの仮定を踏まえれば,ある軸に対して左右対称であり,横軸の両端は0に近くような分布が求められることが想定されます。実はあと1つ「小さい誤差は大きい誤差より起こりやすい」という仮定も考えられているのですが,そこまで踏まえれば正規分布のような形の確率分布が自然と見えてきます。さて,これらの仮定に基づいて誤差の従う分布を求めていきます。

実は,これらの仮定の下で誤差の従う分布がガウス分布になるのです。誤差の確率変数を$\varepsilon$,1つの試行に対する誤差が従う確率密度関数を$f$とすると,誤差が発生する確率は以下のように積分を用いて求められます。

\begin{align}
\int f(\varepsilon) d\varepsilon
\end{align}

実際には,複数回の試行に対する誤差を記述しますから,$\varepsilon$は$n$個あると考えて$\boldsymbol{\varepsilon}$としましょう。

\begin{align}
\int \prod_{i=1}^n f(\varepsilon_i) d\boldsymbol{\varepsilon}
\end{align}

すると,$n$回の試行に対する同時確率密度関数$g$は

\begin{align}
g( \boldsymbol{\varepsilon}) &= \prod_{i=1}^n f(\varepsilon_i)
\end{align}

と表されます。ここで,$\varepsilon$を異なる角度から眺めてみましょう。誤差というのは,標本値と真(と信じている分布から)の値の差として定義されます。これを数式に落とし込みます。独立な試行で得られた標本値を$x_i$,真(と信じている分布から)の値を$X$とおくと,$g(\boldsymbol{\varepsilon})$は以下のように表されます。$x_i$は標本値ですので$X$の関数になることに注意してください。

\begin{align}
g(\varepsilon) &= \prod_{i=1}^n f(x_i – X)\\[0.7em]
&= g(X) \label{正規分布:g(X)}
\end{align}

私たちの目的は$f(\varepsilon)=f(x-X)$を求めることです。ここで,ガウスの仮定の1つ目を利用します。正の誤差も負の誤差も平等に生じるのであれば,真の値からのズレ(=誤差)は相殺するはずです。数式で表せば以下の通りです。

\begin{align}
\sum_{i=1}^n \varepsilon_i &= 0 \label{正規分布:ガウスの仮定1}
\end{align}

すると先ほどの仮定は「$g(X)$は$\mu$で最大値をとる」というように言い換えることができます。なぜなら,この仮定に基づけば,以下のように平均値$\mu$は真の値$X$となるはずだからです。真の値$X$に近い値ほど,確率密度関数は大きな値をとるはずです。

\begin{align}
\mu &= \frac{\sum_{i=1}^n x_i}{n}\\[0.7em]
&= \frac{\sum_{i=1}^n(X+\varepsilon_i)}{n}\\[0.7em]
&= \frac{\sum_{i=1}^n \varepsilon_i }{n} + X \\[0.7em]
&= X
\end{align}

さらに先ほどの「$g(X)$は$\mu$で最大値をとる」を言い換えれば「$g'(\mu)=0$」です。微分に関する条件式が出てきましたので,式(\ref{正規分布:g(X)})の両辺を微分しましょう。しかし,その前に対数をとって積を和の形に変形してから計算を行なった方が簡単です。

\begin{align}
\log g(X) &= \sum_{i=1}^n \log f(x_i – X)
\end{align}

両辺を微分します。

\begin{align}
\frac{g'(X)}{g(X)}
&= – \sum_{i=1}^n \frac{f'(x_i – X)}{f(x_i – X)}\\[0.7em]
&= – \sum_{i=1}^n \frac{f'(\varepsilon_i)}{f(\varepsilon_i)}
\end{align}

ここで,先ほどの$g'(\mu)=0$を利用すれば,以下のように変形できます。

\begin{align}
\sum_{i=1}^n \frac{f'(\varepsilon_i)}{f(\varepsilon_i)}
&= 0 \label{正規分布:微分方程式を導くための要素}
\end{align}

さて,ここまでの流れを整理しましょう。ガウスの仮定の1番目「絶対値の等しい正負の誤差は平等に生じる」を数式で表すと式(\ref{正規分布:ガウスの仮定1})になりました。確率密度関数が真の値で最大値をとることを言い換えると「$g'(\mu)=0$」になり,この条件を利用すれば式(\ref{正規分布:微分方程式を導くための要素})が導かれるのでした。つまり,以下の2つの条件式が手元にある状態です。

\begin{align}
\sum_{i=1}^n \varepsilon_i &= 0 \label{正規分布:条件式1}\\[0.7em]
\sum_{i=1}^n h(\varepsilon) &= 0 \label{正規分布:条件式2}
\end{align}

ただし,$h(\varepsilon)=\frac{f'(\varepsilon)}{f(\varepsilon)}$とおきました。さて,以下では上の2つの条件式を満たす$f$を求めていきます。ここの発想が少しトリッキーなのですが,我々の目標は$f$の関数形,つまり$h$の関数形を調べることでした。そのためには,変数が$n$個あるのに対して条件式が2つしかなく,連立方程式的な発想では直接$h$を求めることは難しそうです。

そこで,関数形を決定する要素として「導関数」を考えます。つまり,式(\ref{正規分布:条件式2})の両辺をある変数に関して微分していきます。ここで,式(\ref{正規分布:条件式1})を使うことも考慮すれば,式(\ref{正規分布:条件式1})である1つの変数を他の変数で表すことで,その変数を式(\ref{正規分布:条件式2})に代入して消去するというアイディアが思いつきます。$\varepsilon_n$に注目すれば,$\varepsilon_n$は以下のように表されます。

\begin{align}
\varepsilon_n &= -\sum_{i=1}^{n-1} \varepsilon_i \label{正規分布:条件式3}
\end{align}

また,式(\ref{正規分布:条件式2})の両辺を$\varepsilon_1$について微分します。なぜ$\varepsilon_1$なのかといえば,$\varepsilon_n$は代入消去されてしまうため,それ以外の適当な変数として選んでいるにすぎません。

\begin{align}
h'(\varepsilon_1) + h'(\varepsilon_n)\frac{\partial \varepsilon_n}{\partial \varepsilon_1} &= 0 \label{正規分布:条件式4}
\end{align}

ここで,式(\ref{正規分布:条件式3})の両辺を$\varepsilon_1$で微分すれば,

\begin{align}
\frac{\partial \varepsilon_n}{\partial \varepsilon_1} &= -1
\end{align}

が得られます。こいつを式(\ref{正規分布:条件式4})に代入すれば

\begin{align}
h'(\varepsilon_1) &= h'(\varepsilon_n) \label{正規分布:条件式5}
\end{align}

となります。$\varepsilon_2$についても全く同じ操作を行えば,以下が得られます。

\begin{align}
h'(\varepsilon_2) &= h'(\varepsilon_n) \label{正規分布:条件式6}
\end{align}

式(\ref{正規分布:条件式5})と式(\ref{正規分布:条件式6})から,以下が成り立ちます。

\begin{align}
h'(\varepsilon_1) &= h'(\varepsilon_2)
\end{align}

この条件式は,$h$の関数形を決めるのに非常にクリティカルに効いてきます。なぜなら,$\varepsilon_1$と$\varepsilon_2$は独立な変数でしたから,それぞれの変数について微分して常に同じ値になるということは,$h'(\varepsilon_1)$と$h'(\varepsilon_2)$は定数でなければなりません。もし,$h'(\varepsilon_1)$が$\varepsilon_1$の関数であり,$h'(\varepsilon_2)$も$\varepsilon_2$の関数であるならば,たとえそれぞれの関数が同じであったとしても$\varepsilon_1$と$\varepsilon_2$が異なる値をとってしまえば,$h'(\varepsilon_1)$と$h'(\varepsilon_2)$は異なる値をとってしまいます。まとめると,$d$を定数として以下がいえます。

\begin{align}
h'(\varepsilon) &= d
\end{align}

すると,$h(\varepsilon)$の関数形が求められました。

\begin{align}
h(\varepsilon) &= a\varepsilon + b
\end{align}

改めて,式(\ref{正規分布:条件式2})に代入すれば,

\begin{align}
a\sum_{i=1}^n \varepsilon_i + nb &= 0
\end{align}

式(\ref{正規分布:条件式3})より,$b=0$が分かりました。ここで補足しておくと,ここまでの議論は$\varepsilon_1$,$\varepsilon_2$,$\varepsilon_n$を利用していましたので,$n>=3$を仮定していました。実は$n<3$のときも同様の議論をすることができるのですが,今回の目的は$n$を十分大きくとった状況における誤差の分布を調べることですので,$n>=3$とすることにします。さて,$h$の関数形が求められましたので,次に$f$の関数形を求めていきます。

\begin{align}
\frac{f'(\varepsilon)}{f(\varepsilon)} &= ax
\end{align}

簡単な微分方程式の形になりました。両辺を積分すると,

\begin{align}
\log f(\varepsilon) &= \frac{1}{2}ax^2 + c\\[0.7em]
f(\varepsilon) &= C \exp(\frac{1}{2}ax^2)
\end{align}

となります。ただし,$e^c=C$とおきました。さて,ここで2つ目のガウスの仮定を利用します。$\varepsilon \rightarrow \pm \infty$のとき$f(\varepsilon)\rightarrow 0$となる必要があります。そこで,$a = -a$と新たに置き換えることにし,$a>0$とします。

\begin{align}
f(\varepsilon) &= C \exp(-\frac{1}{2}ax^2)
\end{align}

ここで,係数の$C$と$a$を求めていきます。変数は2つですので,条件式は2つ考えます。1つめは「$f$が確率密度関数の定義(積分して1になる)を満たすこと」で,2つ目は「$a$が分散$\sigma^2$を表す」ことです。それぞれ数式上でみていきましょう。まずは1つめの条件からです。二項分布からの導出と同様に,ガウス積分を利用します。

\begin{align}
\int_{-\infty}^{\infty} C \exp(-\frac{1}{2}a\varepsilon^2) &= 1 \\[0.7em]
k\sqrt{\frac{2\pi}{a}} &= 1 \label{正規分布:連立1}
\end{align}

2つ目の条件について考えます。例によって$V[X]=V[X^2]-V[X]$を利用します。まずガウスの仮定の1つ目から$E[\varepsilon]=0$が分かります。実際に計算していても求められます。

\begin{align}
\int_{-\infty}^{\infty} \varepsilon f(\varepsilon) d \varepsilon &=\int_{-\infty}^{\infty} \varepsilon C \exp \left(-\frac{a}{2} \varepsilon^{2}\right) d \varepsilon \\[0.7em]
&=C\left[-\frac{1}{a} \exp \left(-\frac{a}{2} \varepsilon^{2}\right)\right]_{-\infty}^{\infty} \\[0.7em]
&=0
\end{align}

続いて$E[\varepsilon^2]$を求めます。

\begin{align}
E[\varepsilon^2] &=
\int_{-\infty}^{\infty} \varepsilon^{2} f(\varepsilon) d \varepsilon \\[0.7em]
&=\int_{-\infty}^{\infty} \varepsilon^{2} C \exp \left(-\frac{a}{2} \varepsilon^{2}\right) d \varepsilon \\[0.7em]
&=C\left\{\left[-\frac{\varepsilon}{a} \exp \left(-\frac{a}{2} \varepsilon^{2}\right)\right]_{-\infty}^{\infty}+\int_{-\infty}^{\infty} \frac{1}{a} \exp \left(-\frac{a}{2} \varepsilon^{2}\right) d \varepsilon\right\} \\[0.7em]
&=\frac{C}{a} \sqrt{\frac{2 \pi}{a}}
\end{align}

したがって,2つ目の条件は以下のようになります。

\begin{align}
E[\varepsilon^2] – E[\varepsilon]^2 &=
\frac{C}{a} \sqrt{\frac{2 \pi}{a}} \\[0.7em]
&= \sigma^2 \label{正規分布:連立2}
\end{align}

式(\ref{正規分布:連立1})と式(\ref{正規分布:連立2})を$a>0$の下で連立することで,以下が得られます。

\begin{align}
a &= \frac{1}{\sigma^2} \\[0.7em]
C &= \frac{1}{\sqrt{2\pi \sigma^2}}
\end{align}

以上から,$f$の形が得られました。

\begin{align}
f(\varepsilon) &= \frac{1}{\sqrt{2\pi \sigma^2}} \exp\left(-\frac{\varepsilon^2}{2 \sigma^2}\right)
\end{align}

いま,ガウスの仮定の1つ目によれば$X=\mu$であったことを踏まえれば,$\varepsilon = x – X = x – \mu$とおくことができます。さらに,$\mu$は定数ですので,$f(x – \mu)=f(x)$と表記されます。

\begin{align}
f(x – \mu) &= f(x)\\[0.7em]
&= \frac{1}{\sqrt{2\pi \sigma^2}} \exp\left\{-\frac{(x – \mu)^2}{2 \sigma^2}\right\}
\end{align}

以上より,正規分布の確率密度関数が導出されました。

モーメント母関数

モーメント母関数の定義に従って計算していきます。

\begin{align}
M(t; \mu, \sigma^2) &= E[e^{tX}] \\[0.7em]
&= \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi \sigma^2}} \exp\left\{-\frac{(x – \mu)^2}{2 \sigma^2} + tx\right\} dx \\[0.7em]
&= \frac{1}{\sqrt{2\pi \sigma^2}} \int_{-\infty}^{\infty}\exp\left\{-\frac{1}{2\sigma^2}\left( x^2 + -2\mu x + 2\sigma^2tx + \mu^2 \right) \right\} dx \\[0.7em]
&= \frac{1}{\sqrt{2\pi \sigma^2}} \int_{-\infty}^{\infty}\exp\left\{-\frac{1}{2\sigma^2}\left( x – (\mu + \sigma^2t)\right)^2 + \mu t + \frac{\sigma^2 t^2}{2} \right\} dx \\[0.7em]
&= \exp\left\{\mu t + \frac{\sigma^2 t^2}{2} \right\}\frac{1}{\sqrt{2\pi \sigma^2}} \int_{-\infty}^{\infty}\exp\left\{-\frac{1}{2\sigma^2}\left( x – (\mu + \sigma^2t)\right)^2 \right\} dx \\[0.7em]
&= \exp\left\{\mu t + \frac{\sigma^2 t^2}{2} \right\}\quad (\because \text{正規分布の積分は1})
\end{align}

平均・分散

連続分布の平均と分散を求める際には「モーメント母関数の性質」(離散分布の平均と分散を求める際には「確率母関数の性質」)を利用します。

\begin{align}
E[X] &= \left. \frac{d M(t; \mu, \sigma^2)}{d t} \right|_{t=0} \\[0.7em]
&= \left. \left( \mu + \sigma^2 t \right) \exp\left\{\mu t + \frac{\sigma^2 t^2}{2} \right\} \right|_{t=0}\\[0.7em]
&= \mu \\[0.7em]
E[X^2] &= \left. \frac{d^2 M(t; \mu, \sigma^2)}{d t^2} \right|_{t=0} \\[0.7em]
&= \left. \sigma^2\exp\left\{\mu t + \frac{\sigma^2 t^2}{2} \right\} + \left( \mu + \sigma^2 t \right)^2 \exp\left\{\mu t + \frac{\sigma^2 t^2}{2} \right\} \right|_{t=0}\\[0.7em]
&= \sigma^2 + \mu^2\\[0.7em]
\therefore\quad V[X] &= E[X^2] – E[X]^2\\[0.7em]
&= \sigma^2 + \mu^2 – \mu^2 \\[0.7em]
&= \sigma^2
\end{align}

再生性

再生性を示すためには,再生性を示したい分布に従う独立な二つの確率変数を考え,その和のモーメント母関数(離散分布の場合はモーメント母関数)を計算したときに,パラメータが和の形になっていることを示します。

$X\sim \calN(\mu_x, \sigma_x)$,$Y\sim \calN(\mu_y, \sigma_y)$を独立に正規分布に従う2つの確率変数とします。$X+Y$のモーメント母関数を考えます。

\begin{align}
M_{X+Y}(t) &= M_{X}(\lambda_X) \cdot M_{Y}(\lambda_Y) \\[0.7em]
&= \exp\left\{\mu_x t + \frac{\sigma^2_x t^2}{2} \right\} \cdot \exp\left\{\mu_x t + \frac{\sigma^2_x t^2}{2} \right\}\\[0.7em]
&= \exp\left\{\left(\mu_x + \mu_y \right) t + \frac{\left(\sigma^2_x + \sigma^2_y \right) t^2}{2} \right\}
\end{align}

これは,$X+Y$の確率母関数が$\calN (\mu_x + \mu_y, \sigma_x + \sigma_y)$の母関数であることを示しています。つまり,$X+Y\sim \calN(\mu_x + \mu_y, \sigma_x + \sigma_y)$であり,正規分布の再生性を示しています。

ロードマップ

確率分布のロードマップ

さて,ロードマップに戻りましょう。 正規分布は二項分布の極限として導出できました。ガウスの仮定に基づけば,誤差の分布が正規分布で表されることも分かりました。本シリーズの「正規系」は,この正規分布を出発点としますのでよくおさえておいて下さい。ポアソン分布の極限としての正規分布はポアソン分布のページにて説明しています。

シェアはこちらからお願いします!
URLをコピーする
URLをコピーしました!

コメント

コメントする