本記事は「これなら分かる!はじめての数理統計学」シリーズに含まれます。
不適切な内容があれば,記事下のコメント欄またはお問い合わせフォームよりご連絡下さい。
目次
ベイズの定理
$A_1, \ldots, A_n$が$\cup_{i=1}^n A_i = \Omega$を満たす排反な事象ならば,任意の事象$B$に対して次が成立する。
\begin{align}
P(A_i|B) &= \frac{P(B|A_i)P(A_i)}{\sum_{i=1}^n P(B|A_i)P(A_i)}
\end{align}
P(A_i|B) &= \frac{P(B|A_i)P(A_i)}{\sum_{i=1}^n P(B|A_i)P(A_i)}
\end{align}
これより,任意の事象$A$,$B$に対して次が成立する。
\begin{align}
P(A|B) &= \frac{P(A, B)}{P(B)}
\end{align}
P(A|B) &= \frac{P(A, B)}{P(B)}
\end{align}
統計学では外せない定理であるベイズの定理です。ベイズモデリングなどでも利用される定理であるため,統計学に限らず機械学習の分野などでも広く親しまれている定理です。
証明
条件付き確率の定義式を代入していきます。そのとき,「$A_1, \ldots, A_n$が$\cup_{i=1}^n A_i = \Omega$を満たす排反な事象」であるという条件を利用して,確率の和を和集合の確率に変形します。また,全ての$A_i$に関する和集合は全事象になることも利用しています。
\begin{align}
\frac{P(B|A_i)P(A_i)}{\sum_{i=1}^n P(B|A_i)P(A_i)}
&= \frac{P(A_i \cap B)}{\sum_{i=1}^n P(B|A_i)P(A_i)} \\[0.7em]
&= \frac{P(A_i \cap B)}{\sum_{i=1}^n P(A_i \cap B)} \\[0.7em]
&= \frac{P(A_i \cap B)}{P\left\{ \cup_{i=1}^n (A_i \cap B) \right\}} \\[0.7em]
&= \frac{P(A_i \cap B)}{P(\Omega \cap B)} \\[0.7em]
&= \frac{P(A_i \cap B)}{P(B)} \\[0.7em]
&= P(A_i|B)
\end{align}
\frac{P(B|A_i)P(A_i)}{\sum_{i=1}^n P(B|A_i)P(A_i)}
&= \frac{P(A_i \cap B)}{\sum_{i=1}^n P(B|A_i)P(A_i)} \\[0.7em]
&= \frac{P(A_i \cap B)}{\sum_{i=1}^n P(A_i \cap B)} \\[0.7em]
&= \frac{P(A_i \cap B)}{P\left\{ \cup_{i=1}^n (A_i \cap B) \right\}} \\[0.7em]
&= \frac{P(A_i \cap B)}{P(\Omega \cap B)} \\[0.7em]
&= \frac{P(A_i \cap B)}{P(B)} \\[0.7em]
&= P(A_i|B)
\end{align}
以上より,$n=1$のときには以下が成立します。
\begin{align}
P(A|B) &= \frac{P(A \cap B)}{P(B)} \\[0.7em]
&= \frac{P(A, B)}{P(B)}
\end{align}
P(A|B) &= \frac{P(A \cap B)}{P(B)} \\[0.7em]
&= \frac{P(A, B)}{P(B)}
\end{align}
参考文献
本稿の執筆にあたり参考にした文献は,以下でリストアップしております。
コメント