はじめに
この記事ではチェビシェフの不等式(Chebyshev's inequality)と大数の弱法則(Weak Law of Large Numbers:LLN)*1を扱います。内容の多くは東京大学出版の『統計学入門]』第8章を参考にしています。チェビシェフの不等式を用いると、確率変数の従う確率分布(密度関数)が分からないときに、その変数のとりえる値におおよその目途を付けることができます。
定義と証明
まずはチェビシェフの不等式の定義を確認します。を連続な確率変数、
を任意の正の数とします。ここでは
です。
(2)は(1)の左辺を変形して導出します。
(1)の証明には確率変数の分散
の定義を用います。
(3)式の両辺をで割ると(1)と等しくなり、チェビシェフの不等式を示すことができます。不等式の意味は、確率変数
が母集団の平均
から外れる確率はせいぜい
以下です。不等式を応用して、確率変数が母集団の平均からどれくらいの離れた場所に位置するのか、目途を付けることができます。
また(3)で分散のとき、
が成立します。当たり前ですが、確率変数
にばらつきはない(つまり定数)場合、母集団の平均と一致します。
例題を解く
『統計学入門』の例題を解きます。
平均
と分散
が与えられたとき、観察されたデータ
が0から2の間に収まる確率はどれくらいか。
確率変数のとりえる範囲
の両辺から
を引くと、
、すなわち
となる確率を求めればよいと分かります。これを(2)に代入すると、
求める確率は67%だと分かりました。面白いのは、確率変数の分布(密度関数)が分からない場合であっても、平均と分散という統計量だけを使って、確率変数の取りえる範囲を求めることができる点です。
大数の弱法則
チェビシェフの不等式の応用例である大数の弱法則を簡単に説明します。(1),(2)の確率変数を標本平均
に置換します。ここでは
です。
(5)式の右辺はnが大きくなるにつれて、ゼロに収束します。つまりサンプルサイズが大きくなるにつれ、標本平均が真の平均から少しでも遠ざかる確率がゼロに近づきます。この収束を確率収束(convergence in probability)と呼びます。
大数の弱い法則は、サンプルサイズが十分に大きいとき、観察された標本平均を母集団の真の平均とみなしてよい、という考え方をサポートするものです。(5)には密度関数は登場せず、確率変数の分布がどんな形であれ成立します。この点はチェビシェフの不等式の便利な性質がそのまま応用されています。