【過去問解答】2018年統計検定1級<数理統計問2>

統計検定1級の過去問解答解説を行います。目次は以下をご覧ください。

不適切な内容があれば,記事下のコメント欄またはお問い合わせフォームよりご連絡下さい。

目次

問題

統計検定1級の過去問からの出題になります。統計検定の問題の著作権は日本統計学会に帰属していますので,本稿にて記載することはできません。「演習問題を俯瞰する」で詳しく紹介している公式の過去問題集をご購入いただきますようお願い致します。

解答

超幾何分布の推定量に関する出題でした。

(1)

\begin{align}
P(X_{i}=1)=\frac{M}{N},\quad P(X_{i}=1,X_{j}=1)=\frac{M(M-1)}{N(N-1)}\label{1-1}
\end{align}

復元抽出とは異なり非復元抽出における場合の数は順番が無視できませんので,順列を用いて考えます。$N$個の球から$n$個の玉を取り出し,左から並べ番号を付ける総数${}_{N}P_{n}$が全事象となります。一方,$i$番目の球が赤球となるのは$M$通りであり,残りの$N{-}1$個の球から$n{-}1$個の玉を取り出し,$i$番目を飛ばして左から番号を付ける総数は${}_{N-1}P_{n-1}$となります。したがって,

\begin{align}
P(X_{i}=1)& \frac{M\cdot{}_{N-1}P_{n-1}}{{}_{N}P_{n}} =\frac{M}{N}
\end{align}

となります。同様に,$i$番目と$j$番目の球が赤球となるのは$M(M{-}1)$通りであり,残りの$N{-}2$個の球から$n{-}2$個の玉を取り出し,$i$番目と$j$番目を飛ばして左から番号を付ける総数は${}_{N-2}P_{n-2}$となります。したがって,

\begin{align}
P(X_{i}=1,X_{j}=1)& \frac{M(M-1)\cdot{}_{N-2}P_{n-2}}{{}_{N}P_{n}} =\frac{M(M-1)}{N(N-1)}
\end{align}

となります。

$X_{1}{=}1$となるのは$N$個の球のうち$M$個が選ばれる場合であり,求める確率は式($\ref{1-1}$)のようになります。$X_{1}{=}1$かつ$X_{2}{=}1$となるのは$N$個の球のうち$M$個が選ばれ,続いて$N{-}1$個の球のうち$M{-}1$個が選ばれる場合であり,求める確率は式($\ref{1-1}$)のようになります。このように,$i,j$番目に着目する確率と$1,2$番目に着目する確率は等しくなります。

(2)

\begin{align}
E[X_{i}] = \frac{M}{N},\quad V[X_{i}^{2}] = \frac{M(1-M)}{N^{2}},\quad \Cov[X_{i},X_{j}] -\frac{M(N-M)}{N^{2}(N-1)}
\end{align}

期待値の定義より,

\begin{align}
E[X_{i}] &= 1\cdot P(X_{i}=1)+0\cdot P(X_{i}=1) = \frac{M}{N}
\end{align}

となります。同様に,

\begin{align}
E[X_{i}] &= 1^{2}\cdot P(X_{i}=1)+0^{2}\cdot P(X_{i}=1) = \frac{M}{N}
\end{align}

となります。したがって,分散は

\begin{align}
V[X_{i}^{2}] &= E[X_{i}^{2}]-E[X_{i}]^{2} = \frac{M}{N}-\left(\frac{M}{N}\right)^{2} = \frac{M(1-M)}{N^{2}}
\end{align}

となります。一方,係数が$0$である項を省略すると,

\begin{align}
E[X_{i}X_{j}] &= 1^{2}\cdot P(X_{i}=1,X_{j}=1) = \frac{M(M-1)}{N(N-1)}
\end{align}

となるため,共分散は

\begin{align}
\Cov[X_{i},X_{j}] &= E[X_{i}X_{j}]-E[X_{i}]E[X_{j}]
= \frac{M(M-1)}{N(N-1)}-\left(\frac{M}{N}\right)^{2} = -\frac{M(N-M)}{N^{2}(N-1)}
\end{align}

となります。

$N\geq M$より$M-N$ではなく$-(N-M)$と表しています。

(3)

\begin{align}
P(X=x) &= \frac{{}_{M}C_{x}\cdot{}_{N-M}C_{n-x}}{{}_{N}C_{n}}\label{3-1}
\end{align}

$N$個ある球のうち$n$個を選ぶ総数が全事象です。$X{=}x$となるのは,$M$個ある赤球のうち$x$個を選び,かつ残りの$N{-}M$個ある青球のうち$n{-}x$個を選ぶ総数ですので,求める確率は式($\ref{3-1}$)となります。

(4)

\begin{align}
E[X] = n\frac{M}{N},\quad V[X] = \frac{N-n}{N-1}\cdot n\cdot \frac{M}{N}\cdot \left(1-\frac{M}{N}\right)
\end{align}

小問(2)の結果を利用すると,期待値は

\begin{align}
E[X] &= \sum_{i=1}^{n}E[X_{i}] = n\frac{M}{N}
\end{align}

となり,分散は

\begin{align}
V[X] &= \sum_{i=1}^{n}V[X_{i}]+\sum_{i\neq j}\Cov[X_{i},X_{j}]\\[0.7em]
&= \frac{M(1-M)}{N^{2}}+n(n-1)\frac{M(M-1)}{N(N-1)}\\[0.7em]
&= \frac{N-n}{N-1}\cdot n\cdot \frac{M}{N}\cdot \left(1-\frac{M}{N}\right)
\end{align}

となります。ただし,$i\neq j$となる総数は,$n$個のインデックスから$(i,j)$の選び方として${}_{n}C_{2}$通り,$(i,j)$の並べ方として$2$通りで,結局$n(n-1)$通りとなることを利用しています。

復元抽出である$p{=}M/N$の二項分布と比較すると,期待値は等しく分散は$N{-}n/(N{-}1)$倍となっています。この分散の倍率は有限修正項とよばれており,超幾何分布が非復元抽出であることを表しています。実際,$N\rarr\infty$とすると直感的にも非復元抽出は復元抽出とみなすことができますが,有限修正項が$1$に収束することにも矛盾しません。

(5)

\begin{align}
\varepsilon &= \sqrt{\frac{(N+K)(N+K-n)}{nNK}}
\end{align}

箱の中には$N+K$個の球が入っており,赤玉は$K$個入っていますので,小問(4)の結果より

\begin{align}
E[X] = n\frac{K}{N+K},\quad V[X] = \frac{N+K-n}{N+K-1}\cdot n\cdot \frac{K}{N+K}\cdot \left(1-\frac{K}{N+K}\right)\label{5-1}
\end{align}

となります。ここで,$N,X$が十分大きいことから$n$も十分大きくなり,これらは$n,K$よりも十分大きくなります。すると,$V[X]$において$(N{+}K{-}n)/(N{+}K{-}1)$は$1$,$K/(N{+}K)$は$0$に十分近づき,$n$は定数とみなせることから,

\begin{align}
V[X] \approx 0
\end{align}

が得られます。分散の定義より,

\begin{align}
V[X] &= E[(X{-}E[X])^{2}] \approx 0
\end{align}

となりますので,$(X{-}E[X])^{2}{\geq}0$より$E[X]\approx X$が得られます。このとき,モーメント法と同様の考え方に則り,式($\ref{5-1}$)に$E[X]{=}X$を代入して$N$について解くことにより,

\begin{align}
\hat{N} &= \frac{nK}{X}-\frac{K}{N}
\end{align}

が得られます。分散の性質より

\begin{align}
V[\hat{N}] &= (nK)^{2}V\left[\frac{1}{X}\right]\label{5_VhatN}
\end{align}

となりますので,$V[1/X]$を求める必要があります。カイ二乗分布など$1/X$の形が確率関数に現れている分布であれば期待値を定義から計算できますが,今回は超幾何分布を対象としているため計算が難しく,$g(x){=}1/x$を仮定したデルタ法を利用して近似します。$\mu$まわりのテイラー展開の二次の項までの期待値を考えることにより,

\begin{align}
V\left[g(X)\right] &= g^{\prime}(\mu)^{2}\sigma^{2}
\end{align}

が得られます。$g^{\prime}(x){=}-x^{-2}$に注意すると,

\begin{align}
V\left[\frac{1}{X}\right]
&= \frac{V[X]}{E[X]^{4}} = \frac{(N+K)^{4}}{n^{4}K^{4}}\frac{N+K-n}{N+K-1}\cdot n\cdot \frac{K}{N+K}\cdot \left(1-\frac{K}{N+K}\right)
\end{align}

となります。$N+K\gg 1$より,

\begin{align}
V\left[\frac{1}{X}\right]
&= \frac{N(N+K)(N+K-n)}{(nK)^{3}}
\end{align}

が得られます。ただし,$N{+}K{\gg}n$を仮定すると近似の精度が落ちてしまうため用いませんでした。これを式($\ref{5_VhatN}$)に代入すると,

\begin{align}
V[\hat{N}] &= \frac{N(N+K)(N+K-n)}{nK}
\end{align}

が得られます。以上より,

\begin{align}
\varepsilon &= \frac{\sqrt{V[\hat{N}]}}{N} = \sqrt{\frac{(N+K)(N+K-n)}{nNK}}
\end{align}

となります。

シェアはこちらからお願いします!

コメント

コメントする

※ Please enter your comments in Japanese to distinguish from spam.

目次