Может кто-нибудь кратко объяснить мне, почему каждое из шести предположений необходимо для вычисления оценки OLS? Я обнаружил только мультиколлинеарность: если она существует, мы не можем инвертировать (X'X) матрицу и, в свою очередь, оценить общую оценку. А как насчет других (например, линейность, средние ошибки и т. Д.)?
14
Ответы:
Вы всегда можете вычислить оценку OLS, за исключением случая, когда у вас есть совершенная мультиколлинеарность. В этом случае у вас есть совершенная мультилинейная зависимость в вашей X-матрице. Следовательно, предположение о полном ранге не выполняется, и вы не можете вычислить оценщик OLS из-за проблем обратимости.
Технически, вам не нужны другие предположения OLS для вычисления оценщика OLS. Однако, согласно теореме Гаусса – Маркова, вам нужно выполнить допущение OLS (допущения clrm), чтобы ваша оценка была СИНИЙ.
Вы можете найти подробное обсуждение теоремы Гаусса – Маркова и ее математического вывода здесь:
http://economictheoryblog.com/2015/02/26/markov_theorem/
Кроме того, если вы ищете обзор допущения OLS, то есть, сколько их, что они требуют и что произойдет, если вы нарушите одно допущение OLS, вы можете найти здесь подробное обсуждение:
http://economictheoryblog.com/2015/04/01/ols_assumptions/
Я надеюсь, что это помогает, ура!
источник
Нижеследующее основано на простых сечениях, для временных рядов и панелей оно несколько иное.
Теперь о последствиях.
Под 1 - 6 (предположения классической линейной модели) OLS - СИНИЙ (лучший линейный несмещенный оценщик), лучший в смысле самой низкой дисперсии. Это также эффективно среди всех линейных оценок, а также всех оценок, которые используют некоторую функцию от x. Что еще более важно при 1 - 6, OLS также является несмещенной оценкой минимальной дисперсии. Это означает, что среди всех несмещенных оценок (не только линейных) OLS имеет наименьшую дисперсию. МНК также соответствует.
Под 1 - 5 (предположения Гаусса-Маркова) OLS является СИНИМ и эффективным (как описано выше).
Под 1 - 4, OLS беспристрастный и последовательный.
На самом деле OLS также непротиворечив, при более слабом предположении, чем а именно: ( 1 ) E ( u ) = 0 и ( 2 ) C o v ( x j , u ) = 0 . Отличие от предположения 4 состоит в том, что при этом предположении вам не нужно идеально закреплять функциональные отношения.(4) (1) E(u)=0 (2) Cov(xj,u)=0
источник
Комментарий в другом вопросе вызвал сомнения в важности условия , утверждая, что его можно исправить, добавив постоянный член в спецификацию регрессии, и поэтому «его можно легко игнорировать».E(u∣X)=0
Это не так. Включение постоянного члена в регрессию будет поглощать, возможно, ненулевое условное среднее значение члена ошибки, если мы предположим, что это условное среднее уже является постоянной величиной, а не функцией регрессоров . Это важнейшее предположение, которое должно быть сделано независимо от того, включаем ли мы постоянный термин или нет:
Если это так, то ненулевое среднее становится помехой, которую мы можем просто решить, включив постоянный член.
Но если это не выполняется (т. Е. Если условное среднее не является нулевой или ненулевой константой ), включение постоянного члена не решает проблему: то, что он будет «поглощать» в этом случае, является величиной это зависит от конкретной выборки и реализации регрессоров. На самом деле неизвестный коэффициент, связанный с рядом единиц, на самом деле не постоянный, а переменный, зависящий от регрессоров через непостоянное условное среднее значение члена ошибки.
Что это значит? Для упрощения предположим простейший случай, когда ( i индексирует наблюдения), но E ( u i ∣ x i ) = h ( x i ) . То есть, термин ошибки является средне-независимым от регрессоров, кроме его современных (в XE(ui∣X−i)=0 i E(ui∣xi)=h(xi) X мы не включаем ряд единиц).
Предположим, что мы указываем регрессию с включением постоянного члена (регрессора из ряда единиц).
и компактная запись
где , Z = [ 1 : X ] , γ = ( , & beta ; ) ' , ε = U - .a=(a,a,a...)′ Z=[1:X] γ=(a,β)′ ε=u−a
Тогда оценщик OLS будет
Для непредвзятости нам нужно . НоE[ε∣Z]=0
и
Moreover, the error termε has a different mean for each i , and so also a different variance (i.e. it is conditionally heteroskedastic). So its distribution conditional on the regressors differs across the observations i .
But this means that even if the error termui is assumed normal, then the distribution of the sampling error γ^−γ will be normal but not zero-mean mormal, and with unknown bias. And the variance will differ.
So
In other words, "finite-sample" properties are all gone.
We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.
So simply put, Strict Exogeneity cannot be "easily ignored".
источник