バナナでもわかる話

開設当初は計量経済学・統計学が専門の大学院生でした。今はデータを扱うお仕事をしています。統計学・経済学・投資理論・マーケティング等々に関する勉強・解説ブログ。ときどき趣味も。極力数式は使わずイメージで説明出来るよう心掛けていますが、時々暴走します。

基礎からイメージで学ぶ統計学~一致推定量編~

前回は大数法則について確認しました。

大数法則に従って、サンプルサイズを大きくしていった時に真の値に収束するような推定量一致推定量と呼びます。


期待値の一致推定量

不偏推定量の話でやった \frac{1}{n}\sum_{i=1}^{n}X_iは、前回の大数法則の記事で確認した通り一致推定量です。


普通の教科書ならここで終わる所ですが、

 \frac{1}{n-1}\sum_{i=1}^{n}X_iはどうでしょう。

大数法則の定義に従えば、 n→\inftyの時に成り立てばよいわけなので

 n-1で割っても nで割っても同じですよね。


まあ厳密に考えるのであれば

 \frac{1}{n-1}\sum_{i=1}^{n}X_i=\frac{n-1+1}{n(n-1)}\sum_{i=1}^{n}X_i
 =\frac{n-1}{n(n-1)}\sum_{i=1}^{n}X_i+\frac{1}{n(n-1)}\sum_{i=1}^{n}X_i=\frac{1}{n}\sum_{i=1}^{n}X_i+\frac{1}{n(n-1)}\sum_{i=1}^{n}X_i


一項目の \frac{1}{n}\sum_{i=1}^{n}X_iは大数法則から期待値 \muに収束しますね。

二項目ですが、 \frac{1}{n(n-1)}\sum_{i=1}^{n}X_i=\frac{1}{n-1}\{\frac{1}{n}\sum_{i=1}^{n}X_i\}
なので、
サンプルサイズを大きくするとまず \{\frac{1}{n}\sum_{i=1}^{n}X_i\} \muに収束するわけですが、

まだ \frac{1}{n-1}が小さくなり続けます。

故に nを大きくしていけば、二項目はほとんど0となりますね。


つまり、こいつも結局一致推定量なわけです。



一般化してやると、結局 \frac{1}{n-c}\sum_{i=1}^{n}X_i一致推定量ですよね?
ここで cとは定数を表すことにします。(constantのc)



では、どの一致推定量が一番良いのでしょうか?平均二乗誤差が小さくなるような推定量が良いと思うのであれば、計算してみるとわかりますが、

 \frac{1}{n}\sum_{i=1}^{n}X_iは別に良い推定量でも何でもなくなります。



これが一致推定量の凄みです。


今の時代はビッグデータ時代と呼ばれ、いくらでもデータを取ってこれる時代になりました。

その結果、一致推定量が使えるようになり、以前まで持て囃されていた不偏推定量が必要のない場面が多くなってきたわけです。


※一昔前だと、サンプルサイズを100も用意できれば上等なんて時代があったわけですが、その時代において一致推定量は使えませんでした。だって高々サンプルサイズ100で、∞に近いとは言えませんよね。しかし10000,100000と取ってきたらどうでしょう。流石に大規模データと言って差し支えないですよね。