はじめに
この記事ではFWL定理(Frisch–Waugh–Lovell ; FWL theorem)を応用した回帰係数ベクトルの性質を扱います。内容の多くはJoshua D. Angrist & Jorn-steffen Pischke (2008)『Mostly Harmless Econometrics』Chapter3.1.2"Linear Regression and the CEF"に依拠しています。
FWL定理を応用した回帰係数の表現
まずは回帰係数ベクトルを定義しましょう。の回帰係数ベクトルを、以下のについての最適化の解だと定義します。
一階の条件(First order condition; F.O.C)より、
の解はと表せ、これがF.O.Cを満たすため、
(3)を言い換えると、残差はと独立です。残差はそれ自体単独では存在せず、が得られて初めて存在します。多変量回帰の場合、番目の回帰係数ベクトルの成分は以下のように与えられます*1。
Regression Anatomy
は、を他のすべての共変量(説明変数)へ回帰した結果得られる残差。
Regression AnatomyはFWL定理*2の応用です。多変量回帰における各回帰係数は、他のすべての共変量を部分的に除いた(partialing out)後の、二変量回帰係数(つまり単回帰係数)と等しくなります。つまり次元の多変量回帰モデルは個の単回帰に分割できる、ことを意味します。
Regression Anatomyの証明
以下、Valerio, F.(2010)に従って、Regression Anatomyを証明しましょう。
Filoso, Valerio. (2013). Regression Anatomy, Revealed. Stata Journal. 13. 1-15.
まず次元多変量回帰モデルを定義します。
次に、を導出するためを他の-個の説明変数に回帰させます。
は以下のように表せます。
(4),(5),(6)をRegression Anatomyに代入すると、
と表すことができます。
次に(5)の残差は期待値ゼロであるため、
またはを除く他すべての説明変数と無相関であるため、
さらに、はすべての説明変数と無相関であるため、
最後に、Regression Anatomyの分子の共分散を以下のように展開します。
(5)の右辺を条件付き期待値を用いて書き直すと、
(12)を(11)の右辺に代入すると、
したがって、
が成立します。
は従属変数の線形結合であるため、誤差項のとは無相関。はまた他のすべての説明変数への回帰によって得られる残差であるため、これらの共変量とも無相関です。同様の理由で と の共分散は、の分散に等しくなります。
回帰係数にはいくつかの流派がある?
Regression Anatomy によって重回帰係数を表現できることが分かりました。元々のFWL定理では、従属変数のの部分が以外に回帰して得られた残差を用いるためとなります。
Regression Anatomyと従来のFWL定理によって得られた(15)はどちらも回帰係数ベクトルですが、その違いは何でしょうか。Valerio, F.(2010)には両者のメリット・デメリットが端的に記載されています。(15)を用いる利点は、回帰係数の分散が小さいことです。
Regression Anatomyの場合は、そのまま用いている分、以外の分散を消去したに比べて分散が大きくなってしまうのです。
一方、Regression Anatomyの利点は、観察データを使って回帰係数を導出できる点です。FWL定理による(15)の場合は、の値が説明変数の値によって値が変わってしまいます。同じ従属変数のに対して異なる説明変数を用いてモデルを推定・比較する場合は説明変数の値に影響を受けないRegression Anatomyに分がある、という訳です。
この記事で定義された回帰係数の性質は、推定値というよりむしろ説明変数と被説明変数の同時確率分布の非確率的な特徴です。我々が推定しようとするものが一体何なのかを表すものです。
終わりに・感想
Regression Anatomy(回帰係数の解剖学?)というキャッチーな名前ですが、やってる中身はなかなかの奥深さです。今回は数式の証明だけでしたが、やはり自分の手で定義の異なる回帰係数ベクトルの値を算出してみる、などのシミュレーションをやってみたいです。今自分にそこまでのプログラミング能力がないのが悔しいです。一旦Angrist and Pischke(2008)関連の記事が落ち着いたらRやPythonで計量経済学を学んでいく、みたいな記事も書きたいです。読んでいただいてありがとうございました。