Предположения для получения оценки МНК

14

Может кто-нибудь кратко объяснить мне, почему каждое из шести предположений необходимо для вычисления оценки OLS? Я обнаружил только мультиколлинеарность: если она существует, мы не можем инвертировать (X'X) матрицу и, в свою очередь, оценить общую оценку. А как насчет других (например, линейность, средние ошибки и т. Д.)?

Иева
источник
1
Вы ищете концептуальное объяснение или вам нужна математическая демонстрация?
gung - Восстановить Монику
4
Обычные наименьшие квадраты - это числовая процедура, вам не нужно много предположений для ее вычисления (кроме обратимости). Предположения необходимы для обоснования вывода на его основе, см. Мой ответ вчера: stats.stackexchange.com/questions/148803/…
kjetil b halvorsen
1
На какие именно «шесть предположений» вы ссылаетесь? Вы упоминаете только три.
whuber
Я имею в виду 1) линейность 2) отсутствие мультиколлинеарности 3) ошибки с нулевым средним 4) сферические ошибки (гомоскедастичность и неавтокорреляция) 5) нестохастические регрессоры и 6) нормальное распределение. Итак, как я понял из ответа ниже, только первые три необходимы для того, чтобы вывести оценщик, а другие нужны только для того, чтобы убедиться, что оценщик СИНИЙ?
Иева

Ответы:

23

Вы всегда можете вычислить оценку OLS, за исключением случая, когда у вас есть совершенная мультиколлинеарность. В этом случае у вас есть совершенная мультилинейная зависимость в вашей X-матрице. Следовательно, предположение о полном ранге не выполняется, и вы не можете вычислить оценщик OLS из-за проблем обратимости.

Технически, вам не нужны другие предположения OLS для вычисления оценщика OLS. Однако, согласно теореме Гаусса – Маркова, вам нужно выполнить допущение OLS (допущения clrm), чтобы ваша оценка была СИНИЙ.

Вы можете найти подробное обсуждение теоремы Гаусса – Маркова и ее математического вывода здесь:

http://economictheoryblog.com/2015/02/26/markov_theorem/

Кроме того, если вы ищете обзор допущения OLS, то есть, сколько их, что они требуют и что произойдет, если вы нарушите одно допущение OLS, вы можете найти здесь подробное обсуждение:

http://economictheoryblog.com/2015/04/01/ols_assumptions/

Я надеюсь, что это помогает, ура!

Саймон Дегонда
источник
14

Нижеследующее основано на простых сечениях, для временных рядов и панелей оно несколько иное.

  1. В популяции и, следовательно, в выборке модель можно записать так: Это предположение о линейности, которое иногда неправильно понимают. Модель должна быть линейной по параметрам, а именно
    Y=β0+β1x1++βkxk+u=Xβ+u
    . Вы можете делать всечто вы хотите с й я сам. Логи, квадраты и т. Д. Если это не так, то модель не может быть оценена с помощью OLS - вам нужен какой-то другой нелинейный оценщик.βkxi
  2. Случайная выборка (для сечений) Это необходимо для вывода и свойств выборки. Это не имеет никакого отношения к чистой механике OLS.
  3. Нет идеальной коллинеарности Это означает, что не может быть идеальных отношений между . Это предположение гарантирует, что ( X X ) неособо, так что ( Xxi(XX) существует.(XX)1
  4. Ноль условного среднего: . Это означает, что вы правильно определили модель так, что: пропущенных переменных нет, а оцененная вами функциональная форма верна относительно (неизвестной) модели популяции. Это всегда проблематичное предположение с OLS, поскольку нет способа узнать, действительно ли оно действительно или нет.E(u|X)=0
  5. Дисперсия погрешности является постоянной и зависит от всех : V a r ( u |Xi Опять же, это ничего не значит для механики OLS, но гарантирует, что обычные стандартные ошибки верны.Var(u|X)=σ2
  6. нормальность; член ошибок u не зависит от и следует u N ( 0 , σ 2 ) . Опять же, это не имеет отношения к механике OLS, но гарантирует, что выборочное распределение β k является нормальным, ^ β kN ( β k , V a r ( ^XiuN(0,σ2)βk.βk^N(βk,Var(βk^))

Теперь о последствиях.

  1. Под 1 - 6 (предположения классической линейной модели) OLS - СИНИЙ (лучший линейный несмещенный оценщик), лучший в смысле самой низкой дисперсии. Это также эффективно среди всех линейных оценок, а также всех оценок, которые используют некоторую функцию от x. Что еще более важно при 1 - 6, OLS также является несмещенной оценкой минимальной дисперсии. Это означает, что среди всех несмещенных оценок (не только линейных) OLS имеет наименьшую дисперсию. МНК также соответствует.

  2. Под 1 - 5 (предположения Гаусса-Маркова) OLS является СИНИМ и эффективным (как описано выше).

  3. Под 1 - 4, OLS беспристрастный и последовательный.

На самом деле OLS также непротиворечив, при более слабом предположении, чем а именно: ( 1 ) E ( u ) = 0 и ( 2 ) C o v ( x j , u ) = 0 . Отличие от предположения 4 состоит в том, что при этом предположении вам не нужно идеально закреплять функциональные отношения.(4)(1) E(u)=0(2) Cov(xj,u)=0

Repmat
источник
Я думаю, что вы рисуете слишком темную картину о состоянии нулевого среднего. Если бы имелось смещение, то минимизация суммы квадратов отклонений была бы неподходящей вещью, но, с другой стороны, вы можете зафиксировать смещение, сдвинув уравнение регрессии (поглощая смещение в ), а затем вы действительно имеют среднее 0. другими словами, 4 и невозможно , чтобы проверить и легко игнорировать. β0
user3697176
Извините, но я не согласен. Или, может быть, я просто неправильно тебя понял? Не могли бы вы или выразить свое мнение или дать ссылку.
Репмат
Я не говорю о намеренно искаженной оценке (такой как регрессия гребня), которая, как мне кажется, не интересовала ФП. Я говорю о модели вида , в котором --- по неизвестной причине --- остаточного ε имеет средний альфа 0 . В этом случае легко выполнить формальное преобразование в y = α + β 0 + β 1 x 1y=β0+β1x1++βxxn+ϵϵα0 , где среднее значение η равно нулю. y=α+β0+β1x1++βxxn+ηη
user3697176
@ user3697176 То, что ты пишешь, неверно. Я только что опубликовал ответ, чтобы объяснить, почему.
Алекос Пападопулос
Если предположение 1 не выполняется, можем ли мы по-прежнему использовать OLS для оценки ковариации населения (даже если мы знаем, что линейных отношений нет)?
максимум
7

Комментарий в другом вопросе вызвал сомнения в важности условия , утверждая, что его можно исправить, добавив постоянный член в спецификацию регрессии, и поэтому «его можно легко игнорировать».E(uX)=0

Это не так. Включение постоянного члена в регрессию будет поглощать, возможно, ненулевое условное среднее значение члена ошибки, если мы предположим, что это условное среднее уже является постоянной величиной, а не функцией регрессоров . Это важнейшее предположение, которое должно быть сделано независимо от того, включаем ли мы постоянный термин или нет:

E(uX)=const.

Если это так, то ненулевое среднее становится помехой, которую мы можем просто решить, включив постоянный член.

Но если это не выполняется (т. Е. Если условное среднее не является нулевой или ненулевой константой ), включение постоянного члена не решает проблему: то, что он будет «поглощать» в этом случае, является величиной это зависит от конкретной выборки и реализации регрессоров. На самом деле неизвестный коэффициент, связанный с рядом единиц, на самом деле не постоянный, а переменный, зависящий от регрессоров через непостоянное условное среднее значение члена ошибки.

Что это значит? Для упрощения предположим простейший случай, когда ( i индексирует наблюдения), но E ( u ix i ) = h ( x i ) . То есть, термин ошибки является средне-независимым от регрессоров, кроме его современных (в XE(uiXi)=0iE(uixi)=h(xi)X мы не включаем ряд единиц).

Предположим, что мы указываем регрессию с включением постоянного члена (регрессора из ряда единиц).

y=a+Xβ+ε

и компактная запись

y=Zγ+ε

где , Z = [ 1 : X ] , γ = ( , & beta ; ) ' , ε = U - .a=(a,a,a...)Z=[1:X]γ=(a,β)ε=ua

Тогда оценщик OLS будет

γ^=γ+(ZZ)1Zε

Для непредвзятости нам нужно . НоE[εZ]=0

E[εixi]=E[uiaxi]=h(xi)a

ih(xi) не является постоянной функцией. Так

E[εZ]0E(γ^)γ

и

E(uixi)=h(xi)h(xj)=E(ujxj), then even if we include a constant term in the regression, the OLS estimator will not be unbiased, meaning also that the Gauss-Markov result on efficiency, is lost.

Moreover, the error term ε has a different mean for each i, and so also a different variance (i.e. it is conditionally heteroskedastic). So its distribution conditional on the regressors differs across the observations i.

But this means that even if the error term ui is assumed normal, then the distribution of the sampling error γ^γ will be normal but not zero-mean mormal, and with unknown bias. And the variance will differ. So

If E(uixi)=h(xi)h(xj)=E(ujxj), then even if we include a constant term in the regression, Hypothesis testing is no longer valid.

In other words, "finite-sample" properties are all gone.

We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.

So simply put, Strict Exogeneity cannot be "easily ignored".

Alecos Papadopoulos
источник
I'm not completely sure I understand this. Isn't assuming that the mean is a not a function of the regressors equivalent to assuming homoscedasticity?
Batman
@Batman To what part of my post are you referring to?
Alecos Papadopoulos
When you say "The inclusion of a constant term in the regression will absorb the possibly non-zero conditional mean of the error term if we assume that this conditional mean is already a constant and not a function of the regressors. This is the crucial assumption that must be made independently of whether we include a constant term or not." Isn't assuming that the conditional mean isn't a function of the regressors exactly what we're assuming when we assume homoscedasticity?
Batman
@Batman Homoskedasticity is an assumption about the variance. Assuming mean -independence does not imply that E(uj2x) is also a constant, which is also needed for conditional homoskedasticity. In fact, mean-independence, E(ux)=const. together with conditional heteroskedasticity, E(u2x)=g(x) is a standard model variant.
Alecos Papadopoulos