脳内ライブラリアン

脳内ライブラリアン

医療、統計、哲学、育児・教育、音楽など、学んだことを深めて還元するために。

MENU

現代数理統計学の基礎 6章 問12(2)

引き続いて(2)ではポアソン分布のクラメール・ラオの下限を調べます。

 

予備知識として

クラメール・ラオの下限は

n個のデータのフィッシャー情報量をI_n(\theta)として

\frac{1}{I_n(\theta)}でした。

 

またフィッシャー情報量は

I_1(\theta)=nI_n(\theta)

であり、また

I_1(\theta)=-\frac{d^2}{d\theta^2}E[logf(x_i|\theta)]

でした。

 

この知識をもとに解いていきます。

 

まず、対数尤度関数を調べると

logf(x|\lambda)=log\frac{\lambda^x}{x!}e^{-\lambda}\\=xlog\lambda-\lambda-log\frac{1}{x!}

 

1回微分すると

\frac{d}{d\lambda}logf(x|\lambda)=\frac{x}{\lambda}-1

 

2回微分すると

\frac{d^2}{d\lambda^2}logf(x|\lambda)=-\frac{x}{\lambda^2}

 

 

よってフィッシャー情報量は

I_1(\lambda)=-E[-\frac{x}{\lambda^2}]=\frac{1}{\lambda}より

I_n(\lambda)=\frac{n}{\lambda}

 

求めるべき下限は\frac{\lambda}{n}となります。