Я пытаюсь обновить модель на основе lm (), чтобы получить правильные стандартные ошибки и тесты. Я действительно запутался, какую матрицу VC использовать. В sandwich
пакет предложений vcovHC
, vcovHAC
и NeweyWest
. В то время как первый учитывает только гетероскедастичность, последние два учитывают как последовательную корреляцию, так и гетероскедастичность. Тем не менее, документация мало говорит о разнице между двумя последними (по крайней мере, я не понимаю). Глядя на саму функцию, я понял, что NeweyWest фактически вызывает vcovHAC.
Эмпирически результаты coeftest(mymodel, vcov. = vcovHAC)
и coeftest(mymodel, vcov. = NeweyWest)
безумны разные. Хотя vcovHAC
это несколько близко к наивным результатам lm, при использовании NeweyWest все коэффициенты становятся незначительными (тесты даже близки к 1).
источник
vcovHAC
отличаетсяNeweyWest
. Подводя итог, можно сказать, что разные методы HAC различаются только по выбору весов.NeweyWest
имеет заданные веса,vcovHAC
это общая функция, которая позволяет вам указывать ваши собственные веса, и по умолчанию использует веса Эндрюса.Ответы:
Рассматриваемый «бутерброд» - это два куска хлеба, определяемые ожидаемой информацией, содержащей мясо, определяемое наблюдаемой информацией. Смотрите мои комментарии здесь и здесь . Для линейной регрессии оценочное уравнение имеет вид:
Ожидаемая информация (хлеб):
Наблюдаемая информация (мясо):
Обратите внимание, что внутренний член является диагональю постоянных невязок, когда соблюдается гомоскедастичность, допущение независимых данных, тогда сэндвич-ковариационная оценка, которая задается как - обычная ковариационная матрица линейной регрессии где - дисперсия невязок. Однако это довольно строго. Вы получаете значительно более широкий класс оценок, ослабляя допущения, связанные с остаточной матрицей : ,A−1BA−1 σ2(XTX)−1 σ2 n×n
Оценка "HC0"R
vcovHC
является последовательной, даже если данные не являются независимыми. Поэтому я не буду говорить, что мы «предполагаем», что остатки независимы, но я скажу, что мы используем «работающую независимую ковариационную структуру». Тогда матрица заменяется диагональю остатковЭта оценка работает очень хорошо, за исключением небольших выборок (<40 часто подразумевается). HC1-3 - это различные конечные выборочные поправки. HC3, как правило, наиболее эффективен.
Однако, если имеются авторегрессионные эффекты, недиагональные элементы являются ненулевыми, поэтому масштабированная ковариационная матрица создается на основе обычно используемых авторегрессионных структур. Это обоснование для "vcovHAC". Здесь создаются очень гибкие и общие методы для оценки эффекта авторегрессии: детали могут быть за рамками вашего вопроса. Функция «meatHAC» является основной рабочей лошадкой: по умолчанию используется метод Эндрюса. Newey-West является частным случаем общей авторегрессионной оценки ошибок. Эти методы решают одну из двух проблем: 1. с какой скоростью уменьшается корреляция между «соседними» наблюдениями и 2. каково разумное расстояние между двумя наблюдениями? Эти данные Если у вас есть сбалансированные данные панели, эта оценка ковариации является излишней.T
gee
gee
пакет вместо того, чтобы указать ковариационную структуруAR-1
или аналогичную.Что касается использования, это зависит от характера анализа данных и научного вопроса. Я бы не советовал подбирать все типы и выбирать тот, который выглядит лучше всего, так как это проблема множественного тестирования. Как я упоминал ранее, оценка vcovHC является последовательной даже при наличии эффекта авторегрессии, поэтому вы можете использовать и обосновать «модель зависимости рабочей независимости» в различных обстоятельствах.
источник