【徹底解説】現代数理統計学の演習解答解説(第三章)

本記事は「これなら分かる!はじめての数理統計学」シリーズに含まれます。

不適切な内容があれば,記事下のコメント欄またはお問い合わせフォームよりご連絡下さい。

目次

はじめに

本稿では,竹村 彰通著「新装改訂版 現代数理統計学」に記載されている演習問題の解答解説を行います。竹村先生により公式の解答が公開されていますが,略解となっていますので所々文脈が追いきれない箇所があります。そのため,ここでは極力行間を詰めた解答解説を心掛けます。

3.1

微分まわりの証明で頻出の変形を行う問題です。慣れておきたい操作です。

二次元平面上で包除原理を利用します。下記の確率密度

\begin{align}
P(x<X\leq x+\Delta x, y<Y\leq y+\Delta y)\label{包除前}
\end{align}

は,$P(X\leq x+\Delta x, Y\leq y+\Delta y)$から余計な確率密度を引いていくことで求められます。安直に

\begin{align}
P(X\leq x+\Delta x, Y\leq y+\Delta y) - P(X\leq x, Y\leq y)
\end{align}

としてもよいのですが,本問のモチベーションは同時確率密度関数が同時分布関数の二階偏微分で表されることを示すための関係式を示すことですので,下記の確率密度を考えます。

\begin{align}
P(X\leq x+\Delta x, Y\leq y+\Delta y) - P(X\leq x+\Delta x, Y\leq y)-P(X\leq x, Y\leq y+\Delta y)\label{包除中}
\end{align}

式($\ref{包除中}$)は式($\ref{包除前}$)と比べて$P(X<x, Y<y)$の部分を一回だけ余計に引きすぎています。そこで,辻褄を合わせるために$P(X<x, Y<y)$を足せば,

\begin{align}
P(X{\leq}x{+}\Delta x, Y{\leq}y{+}\Delta y) - P(X{\leq}x{+}\Delta x, Y{\leq}y)-P(X{\leq}x, Y{\leq}y{+}\Delta y)+P(X{\leq}x, Y{\leq}y)
\end{align}

が成り立つことが分かります。これを同時分布関数を用いて書き直せば

\begin{align}
F(x+\Delta x, y+\Delta y) - F(x+\Delta, y)-F(x, y+\Delta)+F(x, y)
\end{align}

が得られます。

3.2

分布関数を用いた独立の定義と確率・確率関数を用いた独立の定義が等しくなることを示す問題です。離散型確率変数と連続型確率変数の扱いの違いに注意しましょう。

本問で同値性を示すべき独立の定義を二次元の場合で整理しておきます。

\begin{align}
p_{XY}(x,y) &= p_{X}(x)p_{y}(y)\label{独立性の定義1}\\[0.7em]
f_{XY}(x,y) &= f_{X}(x)p_{Y}(y)\label{独立性の定義2}\\[0.7em]
F_{XY}(x,y) &= F_{X}(x)F_{Y}(y)\label{独立性の定義3}
\end{align}

式($\ref{独立性の定義1}$)は離散型確率変数に対する定義,式($\ref{独立性の定義2}$)は連続型確率変数に対する定義,式($\ref{独立性の定義3}$)は離散型と連続型の確率変数のいずれにも適用できる定義です。

まず,式($\ref{独立性の定義2}$)と式($\ref{独立性の定義3}$)の同値性を証明します。式($\ref{独立性の定義3}$)の両辺を$x,y$のそれぞれで偏微分すると,

\begin{align}
f_{XY}(x,y) &= f_{X}(x)f_{Y}(y)
\end{align}

が得られます。ただし,

\begin{align}
f_{XY}(x,y) &= \frac{\partial^{n}F_{XY}(x,y)}{\partial x\partial y}\label{微分と分布関数の関係}
\end{align}

を利用しました。ゆえに,式($\ref{独立性の定義2}$)と式($\ref{独立性の定義3}$)が同値であることが示されました。次に,式($\ref{独立性の定義1}$)と式($\ref{独立性の定義3}$)の同値性を証明します。まず,式($\ref{独立性の定義3}$)が成り立つならば,全問3.1で示した恒等式を利用すると,

\begin{align}
&P_{XY}(X=x,Y=y) \notag\\[0.7em]
&= \lim_{\Delta x,\Delta y \rarr 0}P_{XY}(x<X\leq x+\Delta x, y<Y\leq y+\Delta y)\\[0.7em]
&= \lim_{\Delta x,\Delta y \rarr 0}\left\{F_{XY}(x+\Delta x, y +\Delta y) - F_{XY}(x+\Delta x, y)-F_{XY}(x, y+\Delta y)+F_{XY}(x, y)\right\}\\[0.7em]
&{=} \lim_{\Delta x,\Delta y \rarr 0}\left\{F_{X}(x{+}\Delta x)F_{Y}(y{+}\Delta y) {-} F_{X}(x{+}\Delta x)F_{Y}(y) {-} F_{X}(x)F_{Y}(y{+}\Delta y){+}F_{X}(x)F_{Y}(y)\right\}\\[0.7em]
&= \lim_{\Delta x,\Delta y \rarr 0}\left\{F_{X}(x+\Delta x) - F_{X}(x)\right\}\cdot\left\{F_{Y}(y+\Delta y) - F_{Y}(y)\right\}\\[0.7em]
&= \lim_{\Delta x,\Delta y \rarr 0}\left\{P_{X}(x<X\leq x+\Delta x)\cdot P_{Y}(y<Y\leq y+\Delta y)\right\}\\[0.7em]
&= \lim_{\Delta x\rarr 0}P_{X}(x<X\leq x+\Delta x)\cdot \lim_{\Delta y\rarr 0}P_{Y}(y<Y\leq y+\Delta y)\\[0.7em]
&= P_{X}(X=x)\cdot P_{Y}(Y=y)
\end{align}

が得られますので,式($\ref{独立性の定義3}$)ならば式($\ref{独立性の定義1}$)が示されました。逆に,式($\ref{独立性の定義1}$)が成り立つならば,

\begin{align}
\sum_{x}\sum_{y}p(x,y) &= \sum_{x}\sum_{y}p_{X}(x)p_{y}(y) = \sum_{x}p_{X}(x)\sum_{y}p_{y}(y)
\end{align}

が成り立ちます。左辺は$F_{XY}(x,y)$を表し,右辺は$F_{X}(x)F_{Y}(y)$を表しますので,式($\ref{独立性の定義1}$)ならば式($\ref{独立性の定義3}$)が示されました。以上より,式($\ref{独立性の定義1}$),式($\ref{独立性の定義2}$),式($\ref{独立性の定義3}$)の同値性が証明されました。

3.3

独立の定義を利用する問題です。

書籍中にある通り,正規分布を極座標変換すると

\begin{align}
f(r,\theta) &= c^{2}r\exp\left(-\frac{r^{2}}{2}\right)
\end{align}

が得られます。独立の定義を利用するため,右辺を$f(r)$と$f(\theta)$の積で現したいのですが,右辺に$\theta$は現れていませんので,既に右辺は$f(r)$と$f(\theta)$の積で表されているとみなすことができます。具体的には,$c^{2}$の項が$f(r)$と$f(\theta)$にどのような割合で分配されるかわからないため,$c^{2}=ab$を満たすような$a$と$b$を定義すると,

\begin{align}
f(r,\theta) &= a\cdot br\exp\left(-\frac{r^{2}}{2}\right) \equiv f(\theta)f(r)
\end{align}

のように変形できます。ただし,$r$の定義域は$r^{2}>0$で,$\theta$の定義域は$0\leq\theta<2\pi$となります。したがって,独立の定義より$r$と$\theta$は独立になります。$0\leq\theta<2\pi$の確率関数は$f(\theta)=a$となり,これは$[0,2\pi]$上の一様分布を表しています。$f(r)$に関して$s=r^{2}$と置くと,$f(s)ds=f(r)dr$および$ds=2rdr$に注意して,

\begin{align}
f(s) &= f(r)\frac{dr}{ds}\\[0.7em]
&= f(r)\frac{1}{2r}\\[0.7em]
&= \frac{b}{2}\exp\left(-\frac{s}{2}\right)
\end{align}

と変形できます。指数分布の確率密度関数と係数比較することにより,$b=1$であることが分かります。当サイトにおける指数分布の定義とは異なり,書籍内では

\begin{align}
\frac{1}{\alpha}\exp\left(-\frac{x}{\alpha}\right)
\end{align}

を$\Exp(\alpha)$と定義していますので,$r^{2}$は$\Exp(2)$に従います。

3.4

重積分の変数変換を利用する問題です。

確率変数$X$およびその定義域$A$に対し,$Y=g(X)$で定義される確率変数$Y$およびその定義域$B$を考えます。このとき,重積分を用いて

\begin{align}
P(Y\in A) = P(X\in B) = \int_{B}f_{X}(x)dx = \int_{A}f_{X}(g^{-1}(y))|\det J(\partial x/\partial y)|dy\label{変数変換と重積分}
\end{align}

が成り立つことを利用します。期待値の定義より$A=(-\infty,\infty)$となり,$g$が連続で微分可能な狭義の単調増加関数であることから,$Y=g(X)$で射影される$Y$の定義域も$B=(-\infty,\infty)$となります。また,ヤコビアンにおい偏微分する・されるの関係を逆転させるとヤコビアンが逆数になること,$x=g^{-1}(y)$であること,$g(X)$は狭義単調増加関数であり$g^{\prime}(X)>0$であることを用いると,

\begin{align}
|\det J(\partial x/\partial y)| &= |\det J(\partial y/\partial x)|^{-1}\\[0.7em]
&= |g^{\prime}(x)|^{-1}\\[0.7em]
&= |g^{\prime}(g^{-1}(y))|^{-1}\\[0.7em]
&= \frac{1}{g^{\prime}(g^{-1}(y))}
\end{align}

となります。したがって,式($\ref{変数変換と重積分}$)より,

\begin{align}
E[g(X)] = E[Y] = \int_{-\infty}^{\infty}g(x)f_{X}(x)dx = \int_{-\infty}^{\infty}y\frac{f_{X}(g^{-1}(y))}{g^{\prime}(g^{-1}(y))}dy \equiv \int_{-\infty}^{\infty}yf_{Y}(y)dy
\end{align}

が成り立ちます。逆にこのとき,

\begin{align}
f_{Y}(y) &= \frac{f_{X}(g^{-1}(y))}{g^{\prime}(g^{-1}(y))}
\end{align}

となることが分かります。これは確率変数を変数変換する公式そのものです。

3.5

やや複雑な展開を行う問題です。

期待値の線形性より,

\begin{align}
E[Z] &= a_{1}E[X_{1}]+\cdots+a_{n}E[X_{n}]
\end{align}

が成り立ちます。このとき,

\begin{align}
V[Z] = E[(Z-E[Z])^{2}] = E[\{a_{1}(X_{1}-E[X_{1}])+\cdots+a_{n}(X_{n}-E[X_{n}])\}^{2}]\label{3.5_展開前}
\end{align}

が得られます。式($\ref{3.5_展開前}$)が$n$項の和として構成されており,$X_{i}$が同じ項に着目すると,$a_{i}^{2}V[X_{i}]$の項が$n$個出現することが分かります。$X_{i}$が異なる項に着目すると,$a_{i}a_{j}\Cov[X_{i},X_{j}]$の項が$n^{2}{-}n$個出現することが分かります。後者に関して,確率変数を入れ替えても共分散の値は変わらないことに注意すると,

\begin{align}
a_{i}a_{j}\Cov[X_{i},X_{j}] &= a_{j}a_{i}\Cov[X_{j},X_{i}]
\end{align}

となります。したがって,$n^{2}{-}n$個出現する項では,$2$個ずつ重複が生じていることが分かります。ここで,

\begin{align}
a_{i}a_{j}\Cov[X_{i},X_{j}] + a_{j}a_{i}\Cov[X_{j},X_{i}] &= 2a_{i}a_{j}\Cov[X_{i},X_{j}]
\end{align}

というように$i<j$を満たす項に表記を寄せることにより,

\begin{align}
V[Z] &= \sum_{i=1}^{n}V[X_{i}] + 2\sum_{i<j}a_{i}a_{j}\Cov[X_{i},X_{j}]
\end{align}

が得られます。

3.6

ベクトル・行列表記の場合にも期待値の線形性が成り立つことを証明する問題です。

$X$がベクトルのときに,期待値ベクトル$E[X]$が$X$の各要素の期待値のベクトルとなるという定義を利用します。いま,$a$を$n$次元ベクトル,$B$を$n$次元正方行列,$X$を$n$次元ベクトルとすると,$a+BX$は$n$次元ベクトルとなります。$E[a+BX]$の$i$番目の要素に着目すると,一次元の確率変数に対する期待値の線形性より,

\begin{align}
E[a_{i}+\sum_{j=1}^{n}b_{ij}X_{j}] &= E[a_{i}] + \sum_{j=1}^{n}b_{ij}E[X_{j}]
\end{align}

が成り立ちます。右辺は$a+BE[X]$の$i$番目の要素と一致しますので,

\begin{align}
E[a+BX] &= a+BE[X]
\end{align}

が示されました。

3.7

分散共分散行列の定義と性質を確認する問題です。

定義より,$V[X]$の$(i,j)$要素は$\sigma_{ij}$となります。一方,$E[(X-\mu)(X-\mu)^{T}]$の$(i,j)$要素に着目すると,

\begin{align}
E[(X_{i}-\mu_{i})(X_{j}-\mu_{j})] &= \sigma_{ij}
\end{align}

となりますので,$V[X]=E[(X-\mu)(X-\mu)^{T}]$が成り立ちます。次に,$V[a+BX]$を計算するために,$a+BX$の期待値を計算しておきましょう。

\begin{align}
E[a+BX] &= a+BE[X] = a+B\mu
\end{align}

したがって,

\begin{align}
V[a+BX] &= E\left[\left\{(a+BX)-(a+B\mu)\right\}\left\{(a+BX)-(a+B\mu)\right\}^{T}\right]\\[0.7em]
&= E\left[B(X-\mu)\left\{B(X-\mu)\right\}^{T}\right]\\[0.7em]
&= E\left[B(X-\mu)(X-\mu)^{T}B^{T}\right]\\[0.7em]
&= BE[(X-\mu)(X-\mu)^{T}]B^{T}\\[0.7em]
&= BV[X]B^{T}
\end{align}

が得られます。

3.8

確率母関数もしくはモーメント母関数を利用して,たたみこみの関係を確認する問題です。

たたみこみは確率母関数の積およびモーメント母関数の積で表されることを利用します。ポアソン分布の確率母関数に関して,$X\sim\Po(\lambda)$かつ$Y\sim\Po(\kappa)$とおくと,

\begin{align}
G_{X}(s)G_{Y}(s) &= e^{\lambda(s-1)}e^{\kappa(s-1)} = e^{(\lambda+\kappa)(s-1)}
\end{align}

が得られ,$X{+}Y{\sim}\Po(\lambda+\kappa)$が示されます。正規分布のモーメント母関数に関して,$X{\sim}\N(\mu_{1},\sigma_{1}^{2})$かつ$Y{\sim}\N(\mu_{2},\sigma_{2}^{2})$とおくと,

\begin{align}
M_{X}(t)M_{Y}(t) &= \exp \left(\mu_{1} t + \frac{1}{2}\sigma_{1}^{2}t^{2} \right) \exp \left(\mu_{2} t + \frac{1}{2}\sigma_{2}^{2}t^{2} \right) \\[0.7em]
&= \exp \left\{(\mu_{1}+\mu_{2}) t + \frac{1}{2}\left(\sigma_{1}^{2}+\sigma_{2}^{2}\right)t^{2} \right\}
\end{align}

が得られ,$X{+}Y{\sim}\N(\mu_{1}{+}\mu_{2},\sigma_{1}^{2}{+}\sigma_{2}^{2})$が示されます。負の二項分布の確率母関数に関して,$X{\sim}\NB(r_{1},p)$かつ$Y{\sim}\N(r_{2},p)$とおくと,

\begin{align}
G_{X}(s)G_{Y}(s) &= \left\{ \frac{p}{1-(1-p)s} \right\}^{r_{1}}\left\{ \frac{p}{1-(1-p)s} \right\}^{r_{2}} = \left\{ \frac{p}{1-(1-p)s} \right\}^{r_{1}+r_{2}}
\end{align}

が得られ,$X{+}Y{\sim}\NB(r_{1}{+}r_{2},p)$が示されます。ガンマ分布のモーメント母関数に関して,$X{\sim}\Ga(\nu_{1},\alpha)$かつ$Y{\sim}\N(\nu_{2},\alpha)$とおくと,

\begin{align}
M_{X}(t)M_{Y}(t) &= \left( \frac{1}{1-t/\alpha} \right)^{\nu_{1}}\left( \frac{1}{1-t/\alpha} \right)^{\nu_{2}} = \left( \frac{1}{1-t/\alpha} \right)^{\nu_{1}+\nu_{2}}
\end{align}

が得られ,$X{+}Y{\sim}\Ga(\nu_{1}{+}\nu_{2},\alpha)$が示されます。

3.9

期待値の繰り返しの公式の一般化を証明する問題です。

$E[Y|X]$に対する繰り返しの公式を示したときのように,$E[g(X,Y)]$を無理やり変形して条件付き分布の定義を出現させます。

\begin{align}
E[g(X,Y)] &= \int\int g(x,y)f(x,y)dydx\\[0.7em]
&= \int\left(\int g(x,y)\frac{f(x,y)}{f_{X}(x)}dy\right)f_{X}(x)dx\\[0.7em]
&= \int\left(\int g(x,y)f_{Y|X=x}(y)dy\right)f_{X}(x)dx\\[0.7em]
&= \int E[g(X,Y)|X=x]f_{X}(x)dx\\[0.7em]
&= E^{X}\left[E[g(X,Y)|X=x]\right]
\end{align}

3.10

分散の形をした目的関数を最小化する際の簡単なテクニックを証明する問題です。

$E[Z]=\mu_{z}$および$V[Z]=\sigma_{z}^{2}$とおき,$E[(Z-c)^{2}]$を期待値の線形性により変形すると,

\begin{align}
E[Z^{2}]-2cE[Z]+c^{2} &= (\sigma_{z}^{2}+\mu_{z}^{2})-2c\mu_{z}+c^{2}\\[0.7em]
&= c^{2}-2\mu_{z}c+(\sigma_{z}^{2}+\mu_{z}^{2})\label{cの目的関数}
\end{align}

が得られます。式($\ref{cの目的関数}$)は下に凸の二次関数であるため,平方完成すると式($\ref{cの目的関数}$)を最小にする$c$は$\mu_{z}$で与えられることが分かります。

3.11

3.10の結果を利用して最良線形予測量を求める過程を問う問題です。

3.10の結果より,平均二乗誤差を最小化する$a$は

\begin{align}
a &= E[Y]-b_{1}E[X_{1}]-\cdots-b_{1}E[X_{n}]
\end{align}

で与えられますので,平均二乗誤差にこの$a$を代入すると,

\begin{align}
I(a,\vb) &= E[\left\{Y-\left(E[Y]-b_{1}E[X_{1}]-\cdots-b_{1}E[X_{n}]\right)-b_{1}X_{1}-\cdots-b_{n}X_{n}\right\}^{2}]\\[0.7em]
&= E[\left\{(Y-E[Y])-b_{1}(X_{1}-E[X_{1}])-\cdots-b_{n}(X_{n}-E[X_{n}])\right\}^{2}]\label{3.11_展開前}
\end{align}

が得られます。$i=j=1,\ldots,n$とおいて式($\ref{3.11_展開前}$)を展開すると,$V[Y]$が一項,$-b_{i}\Cov[Y,X_{i}]$が二項ずつ,$b_{i}b_{j}\Cov[X_{i},X_{j}]$が一項現れますので,

\begin{align}
I(a,\vb) &= V[Y]-2\sum_{i=1}^{n}b_{i}\Cov[Y,X_{i}]+\sum_{i=1}^{n}\sum_{j=1}^{n}b_{i}b_{j}\Cov[X_{i},X_{j}]\label{展開後}
\end{align}

となります。式($\ref{展開後}$)の第三項目を

\begin{align}
\sum_{i=1}^{n}\sum_{j=1}^{n}b_{i}b_{j}\Cov[X_{i},X_{j}]
&= \sum_{i=j}b_{i}b_{j}\Cov[X_{i},X_{j}]+2\sum_{i\neq j}\Cov[X_{i},X_{j}]\\[0.7em]
&= \sum_{i=1}^{n}b_{i}^{2}\Cov[X_{i},X_{i}]+2\sum_{i\neq j}b_{i}b_{j}\Cov[X_{i},X_{j}]
\end{align}

と変形して$b_{i}$で偏微分すると,

\begin{align}
\frac{\partial I(a,\vb)}{\partial b_{i}}
&= -2\Cov[Y,X_{i}]+\left(2b_{i}\Cov[X_{i},X_{i}]+2\sum_{i\neq j}b_{j}\Cov[X_{i},X_{j}]\right)\\[0.7em]
&= -2\Cov[Y,X_{i}]+2\sum_{j=1}^{n}b_{j}\Cov[X_{i},X_{j}]
\end{align}

が得られます。これを$0$とおくと,

\begin{align}
\Cov[Y,X_{i}] &= \sum_{j=1}^{n}b_{j}\Cov[X_{i},X_{j}]
\end{align}

が得られます。

3.12

多項分布の確率質量関数の意味を説明する問題です。

ボールを$n$回投げたとき$i$番目の箱に入ったボールの数を$y_{i}$とおきます。$n$個のボールの$k$個の箱への入り方としては,左から右へ$n$個のボールを並べて左から$y_{1}$個取って$1$番目の箱に入れ,$y_{2}$個取って$2$番目の箱に入れ…という状況を考えます。$n$個のボールの並べ方は$n!$通りありますが,それぞれの箱の中に入れる際は左から右に並べたボールの順番は関係なくなりますので,$y_{1}!y_{2}!\cdots y_{k}!$だけ余分に数えていることになります。したがって,$n$個のボールの$k$個の箱への入り方は

\begin{align}
\frac{n!}{y_{1}!y_{2}!\cdots y_{k}!}\label{箱への入り方総数}
\end{align}

で得られます。次に,$n$個のボールを$k$個の箱に投げるという一つの試行に着目します。$i$番目の箱にボールが入る確率を$p_{i}$とおくと,$n$個のボールが$k$個の箱へ入る確率は$p_{1}^{y_{1}}p_{2}^{y_{2}}\cdots p_{k}^{y_{k}}$となります。この一つの試行の組み合わせは全部で式($\ref{箱への入り方総数}$)となります。いずれの組み合わせにおいても$n$個のボールが$k$個の箱へ入る確率は同じになりますので,$1$番目の箱に$y_{1}$個のボール,$2$番目の箱に$y_{2}$個のボール…というような状況が起こる確率は,

\begin{align}
P(Y_{1}=y_{1},Y_{2}=y_{2},\ldots,Y_{k}=y_{k})
&= \frac{n!}{y_{1}!y_{2}!\cdots y_{k}!}p_{1}^{y_{1}}p_{2}^{y_{2}}\cdots p_{k}^{y_{k}}
\end{align}

と表されます。

3.13

多項分布の条件付き分布が多項分布になることを示す問題です。

条件付き確率関数の定義より,

\begin{align}
P(Y|Z) &= P(Y_{1}=y_{1},\ldots,Y_{h}=y_{h}|Z=z)\\[0.7em]
&= \frac{P(Y_{1}=y_{1},\ldots,Y_{h}=y_{h},Z=z)}{P(Z=z)}\\[0.7em]
&= \frac{P(Y_{1}=y_{1},\ldots,Y_{h}=y_{h})}{P(Z=z)}\\[0.7em]
&= \frac{\{n!/(y_{1}!\cdots y_{k}!)\}p_{1}^{y_{1}}\cdots p_{k}^{y_{k}}}{\{n!/(z_{1}!z_{2}!)\}q_{1}^{z_{1}}q_{2}^{z_{2}}}\\[0.7em]
&= \frac{z_{1}!z_{2}!}{y_{1}!\cdots y_{k}!}\frac{p_{1}^{y_{1}}\cdots p_{k}^{y_{k}}}{q_{1}^{z_{1}}q_{2}^{z_{2}}}\\[0.7em]
&= \left(\frac{z_{1}!}{y_{1}!\cdots y_{h}!}\frac{p_{1}^{y_{1}}\cdots p_{h}^{y_{h}}}{q_{1}^{z_{1}}}\right)\cdot \left(\frac{z_{2}!}{y_{h+1}!\cdots y_{k}!}\frac{p_{h+1}^{y_{h+1}}\cdots p_{k}^{y_{k}}}{q_{2}^{z_{2}}}\right)\\[0.7em]
&= \left(\frac{z_{1}!}{y_{1}!\cdots y_{h}!}\frac{p_{1}^{y_{1}}\cdots p_{h}^{y_{h}}}{q_{1}^{y_{1}}\cdots q_{1}^{y_{h}}}\right)\cdot \left(\frac{z_{2}!}{y_{h+1}!\cdots y_{k}!}\frac{p_{h+1}^{y_{h+1}}\cdots p_{k}^{y_{k}}}{q_{2}^{y_{h+1}}\cdots q_{2}^{y_{k}}}\right)\\[0.7em]
&= \left\{\frac{z_{1}!}{y_{1}!\cdots y_{h}!}\left(\frac{p_{1}}{q_{1}}\right)^{y_{1}}{\cdots}\left(\frac{p_{h}}{q_{1}}\right)^{y_{h}}\right\}{\cdot}\left\{\frac{z_{2}!}{y_{h+1}!\cdots y_{k}!}\left(\frac{p_{h+1}}{q_{2}}\right)^{y_{h+1}}{\cdots}\left(\frac{p_{k}}{q_{2}}\right)^{y_{k}}\right\}\\[0.7em]
&= P(Y_{(1)}|Z)\cdot P(Y_{(2)}|Z)\label{条件付き分布の結論}
\end{align}

が得られます。ただし,$Y_{1}=y_{1},\ldots,Y_{h}=y_{h}$が定まれば$Z$も一意に定まることを用い,$q$は周辺分布のときと同様に

\begin{align}
q_{1} &= p_{1}+\cdots+p_{h},\quad q_{2} = p_{h+1}+\cdots+p_{k}
\end{align}

とおきました。したがって,$P(Y|Z)$は$P(Y_{(1)}|Z)$と$P(Y_{(2)}|Z)$の積で表されるため$Y_{(1)}|Z$と$Y_{(2)}|Z$は独立であり,$Y_{(1)}|Z$は$\Mn(y_{1},p_{1}/q_{1},\ldots,p_{h}/q_{1})$に従い,$Y_{(2)}|Z$は$\Mn(y_{2},p_{h+1}/q_{2},\ldots,p_{k}/q_{2})$に従うことが示されました。

3.14

多変量正規分布のモーメント母関数を求める問題です。

モーメント母関数の定義より,

\begin{align}
M_{X}(\theta) &= E[e^{\theta^{T}X}] = \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}}\exp \left\{ \vtheta^{T}\vx -\frac{1}{2}(\vx-\vmu)^T \Sigma^{-1}(\vx-\vmu) \right\}\label{正規分布_モーメント母関数}
\end{align}

となります。指数部分だけに着目して平方完成すると,

\begin{align}
&\vtheta^{T}\vx -\frac{1}{2}(\vx-\vmu)^T \Sigma^{-1}(\vx-\vmu)\notag\\[0.7em]
&= \vtheta^{T}\vx -\frac{1}{2}(\vx^{T}\Sigma^{-1}\vx-2\vmu^{T}\Sigma^{-1}\vx+\vmu^{T}\Sigma^{-1}\vmu)\\[0.7em]
&= -\frac{1}{2}\left\{\vx^{T}\Sigma^{-1}\vx-2(\vmu^{T}+\vtheta^{T}\Sigma)\Sigma^{-1}\vx+\vmu^{T}\Sigma^{-1}\vmu\right\}\\[0.7em]
&= -\frac{1}{2}\left\{\vx^{T}\Sigma^{-1}\vx-2(\vmu^{T}+(\Sigma\vtheta)^{T})\Sigma^{-1}\vx+\vmu^{T}\Sigma^{-1}\vmu\right\}\\[0.7em]
&= -\frac{1}{2}\left\{\vx^{T}\Sigma^{-1}\vx-2(\vmu+\Sigma\vtheta)^{T}\Sigma^{-1}\vx+\vmu^{T}\Sigma^{-1}\vmu\right\}\\[0.7em]
&= -\frac{1}{2}\left[\left\{\vx-(\vmu+\Sigma\vtheta)\right\}^{T}\Sigma^{-1}\left\{\vx-(\vmu+\Sigma\vtheta)\right\}-2\vtheta^{T}\vmu-\vtheta^{T}\Sigma^{-1}\vtheta\right]\\[0.7em]
&= \vtheta^{T}\vmu+\frac{1}{2}\vtheta^{T}\Sigma\vtheta-\frac{1}{2}\left(\vx-\vmu-\Sigma\vtheta\right)^{T}\Sigma^{-1}\left(\vx-\vmu-\Sigma\vtheta\right)
\end{align}

が得られます。第三項目は多変量正規分布の指数部となっており,モーメント母関数の定義($\ref{正規分布_モーメント母関数}$)に代入すると$1$となるため,第一項目と第二項目が残ります。したがって,

\begin{align}
M_{X}(\theta) &= \exp\left(\vtheta^{T}\vmu+\frac{1}{2}\vtheta^{T}\Sigma\vtheta\right)
\end{align}

が得られます。

3.15

アフィン変換の逆変換のヤコビアンの性質を確認する問題です。

$B$が正則であることから,

\begin{align}
x &= B^{-1}(y-a)
\end{align}

が得られます。ヤコビアンの定義より,$x_{i}$を$y_{i}$で微分すると$J(\partial x/\partial y)$の$(i,j)$要素が得られます。すなわち,すべての$i,j$に対して

\begin{align}
J(\partial x/\partial y)_{(ij)} &= J(\partial x_{i}/\partial y_{j}) = B^{-1}_{(ij)}
\end{align}

が成り立ちます。したがって,$J(\partial x/\partial y)=B^{-1}$となります。

3.16

条件付き確率関数の同値な定義を証明する問題です。

いま,

\begin{align}
f_{X,Y|Z=z}(x,y) &= f_{X|Z=z}(x)f_{Y|Z=z}(y)\label{条件付き確率の独立性}
\end{align}

が成り立つならば,条件付き確率関数の定義より,

\begin{align}
\frac{f_{X,Y,Z}(x,y,z)}{f_{Z}(z)}
&= \frac{f_{X,Z}(x,z)}{f_{Z}(z)}\frac{f_{Y,Z}(y,z)}{f_{Z}(z)}
\end{align}

が得られます。両辺に$f_{Z}(z)/f_{X,Z}(x,z)$を掛けると,

\begin{align}
\frac{f_{X,Y,Z}(x,y,z)}{f_{X,Z}(x,z)}
&= \frac{f_{Y,Z}(y,z)}{f_{Z}(z)}
\end{align}

が得られます。これは,

\begin{align}
f_{X|Y,Z}(x) &= f_{X|Z}(x)\label{条件付けても変化しない}
\end{align}

を表しています。逆に,式($\ref{条件付けても変化しない}$)が成り立つならば,先ほどの操作の逆を辿ることにより,式($\ref{条件付き確率の独立性}$)が成り立ちます。したがって,式($\ref{条件付き確率の独立性}$)と式($\ref{条件付けても変化しない}$)は同値になります。

3.17

条件付き確率関数の同値な定義を証明する問題です。

3.16と同様に,

\begin{align}
f_{X,Y|Z=z}(x,y) &= f_{X|Z=z}(x)f_{Y|Z=z}(y)\label{3.17_条件付き確率関数の定義}
\end{align}

が成り立つならば,条件付き確率関数の定義より,

\begin{align}
\frac{f_{X,Y,Z}(x,y,z)}{f_{Z}(z)}
&= \frac{f_{X,Z}(x,z)}{f_{Z}(z)}\frac{f_{Y,Z}(y,z)}{f_{Z}(z)} \equiv g(x,z)h(y,z)
\end{align}

が得られます。逆に,

\begin{align}
f_{X,Y,Z}(x,y,z) &= g_{X,Z}(x,z)h_{Y,Z}(y,z)\label{3.17_逆の仮定}
\end{align}

と書けるとき,

\begin{align}
\frac{f_{X,Y,Z}(x,y,z)}{f_{Z}(z)} &= \frac{g_{X,Z}(x,z)h_{Y,Z}(y,z)}{f_{Z}(z)}\label{3.17_示したい関係式_変形前}
\end{align}

の右辺が条件付き確率関数の定義の形で表せることを示します。まず,$g$と$h$を$f$で表さなければならないため,式($\ref{3.17_逆の仮定}$)から$g$と$h$を$f$に変換するための手掛かりを見つけます。そもそも,式($\ref{3.17_逆の仮定}$)の左辺と右辺では関数に属する変数のグループが別々になっていますので,両辺の周辺分布を考えることで変数の偏りに起因した何かしらの手掛かりが得られそうです。試しに右辺でアンバランスになっている$x$について両辺を周辺化してみると,

\begin{align}
f_{Y,Z}(y,z) &= g_{Z}(z)h_{Y,Z}(y,z)
\end{align}

が得られます。同様に,右辺でアンバランスになっている$y$について両辺を周辺化してみると,

\begin{align}
f_{X,Z}(x,z) &= g_{X,Z}(x,z)h_{Z}(z)
\end{align}

が得られます。これらを利用して式($\ref{3.17_示したい関係式_変形前}$)を変形すると,

\begin{align}
\frac{f_{X,Y,Z}(x,y,z)}{f_{Z}(z)} &= \frac{1}{f_{Z}(z)}\cdot g_{X,Z}(x,z)h_{Y,Z}(y,z)\\[0.7em]
&=\frac{1}{f_{Z}(z)}\cdot\frac{g_{X,Z}(x,z)h_{Z}(z)}{g_{Z}(z)}\cdot\frac{g_{Z}(z)h_{Y,Z}(y,z)}{h_{Z}(z)}\\[0.7em]
&=\frac{1}{f_{Z}(z)}\cdot\frac{f_{X,Z}(x,z)}{g_{Z}(z)}\cdot\frac{f_{Y,Z}(y,z)}{h_{Z}(z)}\\[0.7em]
&= \frac{1}{f_{Z}(z)}\cdot \frac{1}{g_{Z}(z)h_{Z}(z)}\cdot f_{X,Z}(x,z)f_{Y,Z}(y,z)
\end{align}

となります。ここで,$g_{Z}(z)h_{Z}(z)$も先ほどと同様に式($\ref{3.17_逆の仮定}$)の周辺分布を考えれば分かりそうです。実際,$x,y$に関する周辺分布を考えると,

\begin{align}
f_{Z}(z) &= g_{Z}(z)h_{Z}(z)
\end{align}

となりますので,式($\ref{3.17_示したい関係式_変形前}$)は結局

\begin{align}
\frac{f_{X,Y,Z}(x,y,z)}{f_{Z}(z)} &= \frac{f_{X,Z}(x,z)}{f_{Z}(z)}\frac{f_{Y,Z}(y,z)}{f_{Z}(z)}
\end{align}

となりますので,式($\ref{3.17_条件付き確率関数の定義}$)が示されました。

3.18

与えられた確率変数が従う確率分布を求める問題です。

$4$項分布は$4$次元ベルヌーイ試行を$n$回繰り返した際の確率変数が従う分布として定義されます。そこで,まずは与えられた確率変数のペアの一回の試行である

\begin{align}
(Z_{i}, X_{i}-Z_{i},Y_{i}-Z_{i},1-X_{i}-Y_{i}-Z_{i})\label{3.18_ペア}
\end{align}

に着目しましょう。式($\ref{3.18_ペア}$)が$4$次元ベルヌーイ試行であることを示すためには,すべての$i$に対してある一つの要素が$1$となり,他の三つの要素は$0$となることを示す必要があります。$n=1$であることに注意して,表を書いて整理しましょう。

$X_{i}$$Y_{i}$$Z_{i}$$X_{i}-Z_{i}$$Y_{i}-Z_{i}$$n-X_{i}-Y_{i}-Z_{i}$
$0$$0$$0$$0$$0$$1$
$1$$0$$0$$1$$0$$0$
$0$$1$$0$$0$$1$$0$
$1$$1$$1$$0$$0$$0$
与えられた確率変数として取り得る値

したがって,式($\ref{3.18_ペア}$)は$4$次元ベルヌーイ試行となるため,式($\ref{3.18_ペア}$)を$i=1,\ldots,n$で足し上げた

\begin{align}
(Z, X-Z,Y-Z,n-X-Y-Z)
\end{align}

は$4$項分布に従います。確率質量関数は式($\ref{3.18_ペア}$)の$4$次元ベルヌーイ試行に注目すると,

\begin{align}
f(x,y,z)
&=\frac{n!}{z!(x-z)!(y-z)!(n-x-y-z)!}\notag\\[0.7em]
&\quad\quad\times(p_{1}p_{2})^{z}(p_{1}-p_{1}p_{2})^{(x-z)!}\notag\\[0.7em]
&\quad\quad\times(p_{2}-p_{1}p_{2})^{(y-z)!}(1-p_{1}p_{2}-p_{1}-p_{2})^{n-x-y+z}\\[0.7em]
&=\frac{n!}{z!(x-z)!(y-z)!(n-x-y-z)!}\notag\\[0.7em]
&\quad\quad\times(p_{1}p_{2})^{z}\{p_{1}(1-p_{2})\}^{(x-z)!}\notag\\[0.7em]
&\quad\quad\times\{p_{2}(1-p_{1})\}^{(y-z)!}\{(1-p_{1})(1-p_{2})^{n-x-y+z}\}\\[0.7em]
&=\frac{n!}{z!(x-z)!(y-z)!(n-x-y-z)!}p_{1}^{x}(1-p_{1})^{n-x}p_{2}^{y}(1-p_{2})^{n-y}\label{3.17_確率質量関数}
\end{align}

となります。ただし,例えば$P(Z_{i}=1)$は$p_{1}p_{2}$であることなどを利用しました。また,条件付き分布の定義より,

\begin{align}
f(x,y|z) &= \frac{f(x,y,z)}{f(z)}
\end{align}

となりますので,$f(z)$を求めます。$X_{i}$と$Y_{i}$が独立にベルヌーイ分布に従うことに注意すると,

\begin{align}
f(z)
&= {}_{n}C_{x}p_{1}^{x}(1-p_{1})^{n-x}\cdot {}_{n}C_{y}p_{2}^{y}(1-p_{2})^{n-y}\\[0.7em]
&= \frac{n!n!}{x!(n-x)!y!(n-y)!}p_{1}^{x}(1-p)^{n-x}p_{2}^{y}(1-p_{2})^{n-y}
\end{align}

が得られますので,式($\ref{3.17_確率質量関数}$)の確率部分が綺麗に消えて

\begin{align}
f(x,y|z)
&= \frac{n!}{z!(x-z)!(y-z)!(n-x-y-z)!}\cdot \frac{x!(n-x)!y!(n-y)!}{n!n!}\\[0.7em]
&= \frac{x!(n-x)!y!(n-y)!}{n!z!(x-z)!(y-z)!(n-x-y-z)!}\\[0.7em]
&= \left\{\frac{x!}{z!(x-z)!}\right\}\cdot \left\{\frac{(n-x)!}{(y-z)!(n-x-y+z)!}\right\}\cdot \left\{\frac{n!}{y!(n-y)!}\right\}^{-1}\\[0.7em]
&= \frac{{}_{x}C_{z}\cdot{}_{n-x}C_{y-z}}{{}_{n}C_{y}}
\end{align}

となり,超幾何分布の確率質量関数となることが示されました。具体的には,

  • 赤玉が$x$個
  • 白玉が$n-x$個

入っている箱の中から$y$個取り出したときに赤玉が$z$個ある確率を表しています。実際,$Z_{i}$は$X_{i}$かつ$Y_{i}$と定義されており,$X_{i}$が$i$番目の玉が赤色であるかどうか,$Y_{i}$が$i$番目の玉を取り出すかどうかを表していると考えると,$Z_{i}$が取り出した玉の中に含まれている赤玉の個数を表していることも分かります。

3.19

確率変数の変数変換を応用する問題です。

与えられた変換の逆変換を求めると,

\begin{align}
X &= \sqrt{UV},\quad Y = \sqrt{\frac{U}{V}}
\end{align}

となります。ただし,$0\leq x\leq 1$かつ$0\leq y\leq 1$より,

\begin{align}
0\leq uv = x^{2} \leq 1,\quad 0\leq \frac{u}{v} = y^{2} \leq 1\label{3.19_定義域}
\end{align}

となります。したがって,与えられた変換のヤコビアンは

\begin{align}
J &= \abs\left(
\det
\begin{bmatrix}
1/2(uv)^{-1/2} & -1/2u^{-1/2}v^{-3/2}\\
1/2u^{-1/2}v^{1/2} & 1/2u^{1/2}v^{-1/2}
\end{bmatrix}
\right)\\[0.7em]
&= 1/4\cdot\abs(v^{-1}+v^{-1}) = \frac{v^{-1}}{2}
\end{align}

となります。したがって,確率変数の変数変換により,

\begin{align}
f(u,v) &= 1\cdot 1\cdot \frac{v^{-1}}{2} = \frac{v^{-1}}{2}
\end{align}

が得られます。また,式($\ref{3.19_定義域}$)より

\begin{align}
0\leq u\leq \frac{1}{v},\quad 0\leq u\leq v
\end{align}

が得られることに注意すると,$u$の定義域は$[0,\min(v,v^{-1})]$となりますので,

\begin{align}
f(v) &= \int_{0}^{\min(v,v^{-1})}\frac{v^{-1}}{2}du = \frac{v^{-1}\min(v,v^{-1})}{2} = \frac{\min(1,v^{-2})}{2}
\end{align}

となります。

3.20

絶対値と積分の扱いを練習する問題です。

$Z$が連続型確率変数である場合,

\begin{align}
E[|Z-c|] &= \int_{-\infty}^{\infty}|z-c|f(z)dz\\[0.7em]
&= \int_{-\infty}^{c}-(z-c)f(z)dz+\int_{c}^{\infty}(z-c)f(z)dz\label{3.20_期待値}
\end{align}

となります。ただし,$Z$の確率密度関数$f(z)$は連続かつ$c$で偏微分可能とします。ゆえに,$(z{-}c)f(z)$も連続かつ$c$で偏微分可能となります。一般に,連続かつ偏微分可能な関数では微分と積分の順序を交換することができますので,式($\ref{3.20_期待値}$)を$c$で偏微分すると,

\begin{align}
&-\frac{\partial}{\partial c}\int_{-\infty}^{c}(z-c)f(z)dz+\frac{\partial}{\partial c}\int_{c}^{\infty}(z-c)f(z)dz\notag\\[0.7em]
&\quad\quad= -\int_{-\infty}^{c}\frac{\partial}{\partial c}(z-c)f(z)dz+\int_{c}^{\infty}\frac{\partial}{\partial c}(z-c)f(z)dz\\[0.7em]
&\quad\quad= \int_{-\infty}^{c}f(z)dz-\int_{c}^{\infty}f(z)dz\\[0.7em]
&\quad\quad= P(Z\leq c) - P(c<Z)
\end{align}

が成り立ちます。これが$0$となる$c$は$P(Z\leq c)=P(c<Z)$を満たすため,$E[|Z-c|]$を最小にする$c$はメディアンとなります。次に,$Z$が離散型確率変数である場合,

\begin{align}
E[|Z-c|] &= \sum_{z=-\infty}^{\infty}|z-c|f(z)\\[0.7em]
&= \sum_{z=-\infty}^{c}-(z-c)f(z)+\sum_{z=c}^{\infty}(z-c)f(z)
\end{align}

となります。これを$c$で偏微分すると,

\begin{align}
&\frac{\partial}{\partial c}\left\{\sum_{z=-\infty}^{c}-(z-c)f(z)+\sum_{z=c+1}^{\infty}(z-c)f(z)\right\}\notag\\[0.7em]
&\quad\quad= -\sum_{z=-\infty}^{c}\frac{\partial}{\partial c}(z-c)f(z)+\sum_{z=c+1}^{\infty}\frac{\partial}{\partial c}(z-c)f(z)\\[0.7em]
&\quad\quad= \sum_{z=-\infty}^{c}f(z)-\sum_{z=c+1}^{\infty}f(z)\\[0.7em]
&\quad\quad= P(Z\leq c) - P(c< Z)
\end{align}

ただし,$z$の量子化幅(隣り合う変数の差)は$1$としました。したがって,連続型確率変数と同様にして,$E[|Z-c|]$を最小にする$c$はメディアンとなります。

3.21

多変量正規分布のモーメントに関する計算を練習する問題です。

多変量モーメント母関数の性質より,モーメント母関数$E[e^{\theta^{T}X}]$のマクローリン展開における$\theta_{i}\theta_{j}\theta_{k}\theta_{l}$の係数が$E[X_{i}X_{j}X_{k}X_{l}]$の値となります。多変量正規分布の$E[e^{\theta^{T}X}]$は具体的に求められているとし,そのモーメント母関数をマクローリン展開します。

\begin{align}
E[e^{\theta^{T}X}] &= 1+\theta^{T}\Sigma\theta/2+\frac{1}{2!}(\theta^{T}\Sigma\theta/2)^{2}+\cdots
\end{align}

$\theta_{i}\theta_{j}\theta_{k}\theta_{l}$が出現する項は,

\begin{align}
\frac{1}{2!}(\theta^{T}\Sigma\theta/2)^{2} &= \frac{1}{8}(\theta^{T}\Sigma\theta)\cdot (\theta^{T}\Sigma\theta)\label{3.20_注目する項}
\end{align}

です。$\theta=(\theta_{1},\theta_{2},\theta_{3},\theta_{4})$の場合に$\theta^{T}\Sigma\theta$の要素を書き下してみると,

\begin{align}
\theta^{T}\Sigma\theta &=
(\theta_{1},\theta_{2},\theta_{3},\theta_{4})
\begin{pmatrix}
\sigma_{11} & \sigma_{12} & \sigma_{13} & \sigma_{14}\\
\sigma_{21} & \sigma_{22} & \sigma_{23} & \sigma_{24}\\
\sigma_{31} & \sigma_{32} & \sigma_{33} & \sigma_{34}\\
\sigma_{41} & \sigma_{42} & \sigma_{43} & \sigma_{44}
\end{pmatrix}
\begin{pmatrix}
\theta_{1}\\
\theta_{2}\\
\theta_{3}\\
\theta_{4}
\end{pmatrix}
\end{align}

となりますので,$\theta^{T}\Sigma\theta$から$\theta_{1}\theta_{2}\theta_{3}\theta_{4}$として構成するための項を二つ選ぶ際には「$\theta_{1}\theta_{2}$の係数は$\sigma_{12}$」のように,$\theta$の添え字と$\sigma$の添え字が全く同じものになります。これは共分散の定義からも明らかとも言えます。したがって,$\theta^{T}\Sigma\theta$から$\theta_{i}\theta_{j}$を選んだ場合の係数は$\sigma_{ij}$となります。

さて,式($\ref{3.20_注目する項}$)における$\theta_{i}\theta_{j}\theta_{k}\theta_{l}$の係数を求めます。$\theta^{T}\Sigma\theta$を二回掛け合わせて$\theta_{i}\theta_{j}\theta_{k}\theta_{l}$を完成させるためには,左側の$\theta^{T}\Sigma\theta$と右側の$\theta^{T}\Sigma\theta$で下表のように選んでいけばよいです。ここでは可読性向上のため,$(i,j,k,l)$を$(1,2,3,4)$と表記します。

左側の$\theta^{T}\Sigma\theta$右側の$\theta^{T}\Sigma\theta$$\theta_{1}\theta_{2}\theta_{3}\theta_{4}$の係数
$\theta_{1}\theta_{2}$$\theta_{3}\theta_{4}$$\sigma_{12}\sigma_{34}$
$\theta_{1}\theta_{2}$$\theta_{4}\theta_{3}$$\sigma_{12}\sigma_{34}$
$\theta_{2}\theta_{1}$$\theta_{3}\theta_{4}$$\sigma_{12}\sigma_{34}$
$\theta_{2}\theta_{1}$$\theta_{4}\theta_{3}$$\sigma_{12}\sigma_{34}$
$\theta_{1}\theta_{3}$$\theta_{2}\theta_{4}$$\sigma_{13}\sigma_{24}$
$\theta_{1}\theta_{3}$$\theta_{4}\theta_{2}$$\sigma_{13}\sigma_{24}$
$\theta_{3}\theta_{1}$$\theta_{3}\theta_{4}$$\sigma_{13}\sigma_{24}$
$\theta_{3}\theta_{1}$$\theta_{4}\theta_{2}$$\sigma_{13}\sigma_{24}$
$\theta_{1}\theta_{4}$$\theta_{2}\theta_{3}$$\sigma_{14}\sigma_{23}$
$\theta_{1}\theta_{4}$$\theta_{3}\theta_{2}$$\sigma_{14}\sigma_{23}$
$\theta_{4}\theta_{1}$$\theta_{2}\theta_{3}$$\sigma_{14}\sigma_{23}$
$\theta_{4}\theta_{1}$$\theta_{3}\theta_{2}$$\sigma_{14}\sigma_{23}$
$\theta_{2}\theta_{3}$$\theta_{1}\theta_{4}$$\sigma_{23}\sigma_{14}$
$\theta_{2}\theta_{3}$$\theta_{4}\theta_{1}$$\sigma_{23}\sigma_{14}$
$\theta_{3}\theta_{2}$$\theta_{1}\theta_{4}$$\sigma_{23}\sigma_{14}$
$\theta_{3}\theta_{2}$$\theta_{4}\theta_{1}$$\sigma_{23}\sigma_{14}$
$\theta_{2}\theta_{4}$$\theta_{1}\theta_{3}$$\sigma_{24}\sigma_{13}$
$\theta_{2}\theta_{4}$$\theta_{3}\theta_{1}$$\sigma_{24}\sigma_{13}$
$\theta_{4}\theta_{2}$$\theta_{1}\theta_{3}$$\sigma_{24}\sigma_{13}$
$\theta_{4}\theta_{2}$$\theta_{3}\theta_{1}$$\sigma_{24}\sigma_{13}$
$\theta_{3}\theta_{4}$$\theta_{1}\theta_{2}$$\sigma_{34}\sigma_{12}$
$\theta_{3}\theta_{4}$$\theta_{2}\theta_{1}$$\sigma_{34}\sigma_{12}$
$\theta_{4}\theta_{3}$$\theta_{1}\theta_{2}$$\sigma_{34}\sigma_{12}$
$\theta_{4}\theta_{3}$$\theta_{2}\theta_{1}$$\sigma_{34}\sigma_{12}$
$\theta_{1}\theta_{2}\theta_{3}\theta_{4}$を完成させるための組み合わせ

したがって,$\theta_{1}\theta_{2}\theta_{3}\theta_{4}$の係数としては,

\begin{align}
4\cdot 2\cdot\sigma_{12}\sigma_{34}
+4\cdot 2\cdot\sigma_{13}\sigma_{24}
+4\cdot 2\cdot\sigma_{14}\sigma_{23}
&= 8(\sigma_{12}\sigma_{34}+\sigma_{13}\sigma_{24}+\sigma_{14}\sigma_{23})
\end{align}

となります。$(1,2,3,4)$を$(i,j,k,l)$に戻すと$8(\sigma_{ij}\sigma_{kl}+\sigma_{ik}\sigma_{jl}+\sigma_{il}\sigma_{jk})$となります。これを式($\ref{3.20_注目する項}$)に代入すると,

\begin{align}
\sigma_{ij}\sigma_{kl}+\sigma_{ik}\sigma_{jl}+\sigma_{il}\sigma_{jk}
\end{align}

となります。

シェアはこちらからお願いします!

コメント

コメントする

※ Please enter your comments in Japanese to distinguish from spam.

目次