Я должен преподавать теорему Фриша Во в эконометрике, которую я не изучал.
Я понял математику, стоящую за этим, и я надеюсь, что идея «коэффициент, который вы получаете для определенного коэффициента из множественной линейной модели, равен коэффициенту простой регрессионной модели, если вы« исключаете »влияние других регрессоров». Так что теоретическая идея довольно крутая. (Если я полностью не понял, я приветствую исправление)
Но есть ли у него классические / практические применения?
РЕДАКТИРОВАТЬ : я принял ответ, но все еще готов иметь новые, которые приносят другие примеры / приложения.
regression
econometrics
least-squares
projection
decomposition
Энтони Мартин
источник
источник
Ответы:
Рассмотрим модель данных панели с фиксированными эффектами, также известную как модель фиктивных переменных с наименьшими квадратами (LSDV).
Другой способ вычисленияbLSDV состоит в том, чтобы применить так называемое внутри-преобразование к обычной модели, чтобы получить ее унизительную версию, то есть
По теореме Фриш-Уо-Ловелл, два эквивалентны, так как FWL говорит , что вы можете вычислить подмножество регрессии коэффициентов регрессииβ^ ) по
Вторая версия гораздо более широко используется, потому что типичные наборы данных панели могут иметь тысячи единиц панелиN , так что при первом подходе вам потребуется запустить регрессию с тысячами регрессоров, что не является хорошей идеей в численном отношении даже в наши дни при быстром компьютеры, поскольку вычисление обратного значения (D:X)′(D:X) было бы очень дорогим, тогда как затрачиваемое на время y и X имеет небольшую стоимость.
источник
Вот упрощенная версия моего первого ответа, который, на мой взгляд, менее актуален, но, возможно, легче «продать» для использования в классе.
Регрессии и у я - ˉ у = К Е J = 2 β J ( х я J - ˉ х J ) + ~ ε я даю одинаковым β J , J = 2 , ... ,
источник
Вот еще один, более косвенный, но я считаю интересным, а именно связь между различными подходами к вычислению частичного коэффициента автокорреляции стационарного временного ряда.
Определение 1
So, we sort of run a multiple regression and find one coefficient of interest while controlling for the others.
Definition 2
Them th partial correlation is the correlation of the prediction error of Yt+m predicted with Yt−1,…,Yt−m+1 with the prediction error of Yt predicted with Yt−1,…,Yt−m+1 .
So, we sort of first control for the intermediate lags and then compute the correlation of the residuals.
источник