脳内ライブラリアン

脳内ライブラリアン

医療、統計、哲学、育児・教育、音楽など、学んだことを深めて還元するために。

MENU

現代数理統計学の基礎 6章 問9

今まで手書きの汚い数式を晒してきたのですが

今後色々まとめなおしたりする時に

何だかんだでPCで数式を書けるようにする必要があることを

と思い直しまして。

 

結局スキャナでメモを読み取るのも面倒くさいのと

計算手書きでするときに書き間違えを気にしながらやると

スピードがかなり落ちるので

ここはひとつ、Latexを使って数式書くようにしてみようと思います。

Latexについても初めて学んだのでまたどこかで記事にしたいところです。

 

 

さて、問題は前回に引き続いて6章の問9。

線形推定量の問題。

 

(1)は線形推定量=θの 不偏推定量を示せばよいので

まず線形推定量の期待値を考えます。

 

E[\sum_{i=1}^ka_{i}\hat{\theta_{i}}]\\=E[a_{1}\hat{\theta_{1}}]+E[a_{2}\hat{\theta_{2}}]+...+E[a_{k}\hat{\theta_{k}}]\\=a_1\theta+a_2\theta+…+a_k\theta (\hat{\theta}は不偏推定量のため)\\=\sum_{i=1}^ka_i\theta

 

そうするとこの式の期待値=θとなればよいので

\sum_{i=1}^ka_i=1\

となることが分かります。

これが求めたい条件なので(1)は終わりです。

続いて(2)

線形不偏推定量の中で分散が最小になるものを求める問題。

いわゆる最良線形不偏推定量(Best Linear Unbiased Estimator, BLUE)を求めます。

おしゃれな名前ですね。

 

まず分散を式にします。

 

Var[\sum_{i=1}^ka_{i}\hat{\theta_{i}}]=E[\{\sum_{i=1}^ka_i(\hat{\theta_i}-\theta)\}^2\\=\sum_{i=1}^ka_i^2E[(\hat\theta_i-\theta)^2]+\sum_{i=1}^k\sum_{j=1}^ka_ia_jcov(\hat\theta_i,\hat\theta_j)\

 

ここでcov(\hat\theta_i,\hat\theta_j)=0\より

 

\sum_{i=1}^ka_i^2\sigma^2_i\

 

となります。

 ここで本文p128と同様にラグランジュの未定乗数法を使って

\sum_{i=1}^ka_i=1\ を制約条件として

 

H(a_1,a_2,...,a_k)=\sum_{i=1}^ka_i^2\sigma^2_i+\lambda(\sum_{i=1}^ka_i-1)\

 

これを偏微分して解くと

 

\frac{\partial H}{\partial a_i}=2a_i\sigma^2_i+\lambda a_i=0\

 

よって

a_i=\frac{\lambda}{2\sigma^2_i}\

 

これを制約式に代入して

\sum_{i=1}^k\frac{\lambda a_i}{2\sigma^2_i}=1\

\lambda=\sum_{i=1}^k2\sigma^2_i\

a_i=\frac{\sum_{j=1}^k{\sigma_j^2}}{\sigma_i^2}\

 

 これを用いて最良線形不偏推定量

\hat\theta^{BLUE}=\sum_{i=1}^k\frac{\sum_{j=1}^k2\sigma_j^2}{\sigma_i^2}\hat\theta_i\

となる。

 

 

このときの分散が

Var[\hat\theta^{BLUE}]=Var(\sum_{i=1}^ka_i\hat\theta_i)\\=\sum_{i=1}^ka_i^2\sigma^2=\frac{(\sum_{j=1}^k\sigma_j)^2}{\sigma_2^2}\

となります。

 

Latex初めて使うとミスに気づかなくてかえって時間かかりますね、、、。