Goodな生活

INTP型コンサルタントが好奇心の受け皿を探す

【統計検定1級・過去問】統計数理(2019年11月 問2)

[1] 確率変数の和の期待値

X_1,X_2は独立なので、それぞれの平均を求めればよい。
部分積分を使うと、

 {\begin{eqnarray}
E[X_1] &=& \int_{0}^{\infty} x λ e^{-λx} dx \\
             &=& \left[ -xe^{-λx} \right]^{\infty}_0 + \int_{0}^{\infty} e^{-λx} dx \\
             &=& 0 + \left[ -\frac{1}{λ} e^{-λx} \right]^{\infty}_0 \\
             &=& \frac{1}{λ} \tag{1}
\end{eqnarray}}

変数変換すると、ガンマ関数を使うことができる。

 {\begin{eqnarray}
E[X_1] &=& \int_{0}^{\infty} x λ e^{-λx} dx \\
             &=& \int_{0}^{\infty} u e^{-u} \frac{1}{λ}du \\ 
             &=& \frac{Γ(2)}{λ} \\
             &=& \frac{1}{λ} \tag{2}
\end{eqnarray}}

X_2も同じ期待値なので、

 {\begin{eqnarray}
E[U] &=& E[X_1] + E[X_2]  \\
          &=& \frac{1}{λ} + \frac{1}{λ} \tag{3}
\end{eqnarray}}

参考:指数関数とガンマ関数の性質

指数分布に従う確率変数のべき乗の期待値はガンマ関数を使って表すことができる。分散を計算するときに便利。
 {\begin{eqnarray}
E[X_1^2] &=&  \frac{Γ(3)}{λ^2} 
             &=& \frac{2}{λ^2} \tag{4}
\end{eqnarray}}

 {\begin{eqnarray}
E[X_1^n] &=&  \frac{Γ(n+1)}{λ^n} 
             &=& \frac{n!}{λ^n} \tag{5}
\end{eqnarray}}

[2] 確率変数の和の密度関数

密度関数の求め方は2通り。
1つ目は、ガンマ分布の再生性より、U = X_1 +X_2 \sim Γ(1,λ)+Γ(1,λ) = Γ(2,λ)なので、

 {\begin{eqnarray}
g(u) &=&  f_{Γ(2,λ)}(u) \\
       &=& \frac{λ^2}{Γ(2)}u^{2-1} e^{-λu} \\
       &=& λ^2 u e^{-λu} (u >0) \tag{6}
\end{eqnarray}}

2つ目は、確率分布の和の公式を用いて、

 {\begin{eqnarray}
g(u) &=&  \int_{0}^{u} f_{X_1}(v) f_{X_2}(u-v) du \\
       &=&  \int_{0}^{u} λe^{-λu} λ e^{-λ(u-v)} du \\
       &=& λ^2 e^{-λu} \int_{0}^{u} du \\
       &=& λ^2 u e^{-λu} (u >0) \tag{7}
\end{eqnarray}}

参考:確率分布の和の公式

P(X_1>0) =P(X_2>0) = 1で独立なら、u>0として、
 {\begin{eqnarray}
g_{X_1+X_2}(u) &=& \int_{0}^{u} f_{X_1}(v) f_{X_2}(u-v) du \tag{8}
\end{eqnarray}}
であり、f_{X_1}f_{X_2}の畳み込み(convolution)と呼ばれる。

[3] 確率変数の和の逆数の期待値

 {\begin{eqnarray}
E\left[\frac{1}{U}\right] &=& \int_{0}^{\infty} \frac{1}{u} λ^2 u e^{-λu} du  \\
                        &=& λ^2  \int_{0}^{\infty} e^{-λu} du \\
                        &=& λ^2 \left[-\frac{1}{λ} e^{-λu} \right]_0^{\infty} \\
                        &=& λ \tag{9}
\end{eqnarray}}

[4] 損失関数(ロス関数)の期待値の最小化

標本平均は\bar{X} = \frac{U}{2}

 {\begin{eqnarray}
R(α,θ) &=& E[L(α\bar{X},θ)] \\
           &=& E\left[\frac{α\bar{X}}{θ} + \frac{θ}{α\bar{X}} -2\right] \\ 
           &=& \frac{α}{2θ} E[U] + \frac{2θ}{α}E\left[\frac{1}{U}\right] -2 \tag{10}
\end{eqnarray}}

条件よりθλ=1、また(3),(9)を代入して

 {\begin{eqnarray}
R(α,θ)  &=& \frac{α}{2θ} \frac{2}{λ} + \frac{2θ}{α}λ -2 \\
           &=& α + \frac{2}{α} -2 \tag{11}
\end{eqnarray}}

α>0なので、相加平均と相乗平均の関係より、

 {\begin{eqnarray}
α + \frac{2}{α} -2 \geq 2 \sqrt{α・\frac{2}{α}} - 2 \tag{12}
\end{eqnarray}}

等号成立は、α=\sqrt{2}。よってα=\sqrt{2}のときR(α,θ)は最小となる。