В первом предложении этой вики- страницы утверждается, что «В эконометрике возникает проблема эндогенности, когда объясняющая переменная соотносится с ошибочным термином. 1 »
Мой вопрос в том, как это может произойти? Разве бета-версия регрессии не выбрана такой, что член ошибки ортогонален пространству столбцов матрицы проекта?
regression
обитатель севера
источник
источник
Ответы:
Вы объединяете два типа термина «ошибка». В Википедии на самом деле есть статья, посвященная этому различию между ошибками и остатками .
В МНК регрессии, остатки (ваши оценки погрешности или терминаε^ действительно гарантированно быть коррелируют с предикторов, предполагая , что регресс содержит свободный член.
Но «истинные» ошибкиε вполне могут коррелировать с ними, и это то, что считается эндогенностью.
Для простоты рассмотрим модель регрессии (вы можете увидеть, что это описывается как базовый « процесс генерации данных » или «DGP», теоретическая модель, которую мы предполагаем для генерации значения ):y
В принципе, нет причин, почему не может быть соотнесен с ε в нашей модели, однако мы бы предпочли, чтобы таким образом не нарушались стандартные допущения OLS. Например, может случиться так, что у зависит от другой переменной, которая была опущена в нашей модели, и это было включено в термин возмущения ( ε - это то, где мы объединяем все вещи, кроме x, которые влияют на y ). Если эта пропущенная переменная также коррелирует с x , то ε , в свою очередь, будет коррелироваться с x, и мы имеем эндогенность (в частности, смещение опущенной переменной ).x ε y ε x y x ε x
Когда вы оцениваете свою регрессионную модель по имеющимся данным, мы получаем
Из-за способа МНК работы *, остатки ε будет коррелируют с х . Но это не значит , что мы избежали эндогенность - это просто означает , что мы не можем обнаружить его путем анализа корреляции между е и х , что будет (до численной ошибки) равна нулю. И поскольку допущения OLS были нарушены, нам больше не гарантированы хорошие свойства, такие как беспристрастность, нам так нравится OLS. Наша оценка β 2 будет смещена.ε^ x ε^ x β^2
Тот фактчто ε некоррелирован с й вытекает непосредственно из «нормальных уравнений»мы используемчтобы выбрать наилучшие оценки коэффициентов.(∗) ε^ x
Если вы не привыкли к настройке матрицы, и я придерживаюсь двумерной модели, использованной в моем примере выше, то сумма квадратов невязок равна и найти оптимальное б 1 = & beta ; 1 и б 2 =S(b1,b2)=∑ni=1ε2i=∑ni=1(yi−b1−b2xi)2 b1=β^1 которые минимизируют это, мы находим нормальные уравнения, во-первых, условие первого порядка для предполагаемого пересечения:b2=β^2
который показывает , что сумма (и , следовательно , среднее) из остатков равна нулю, поэтому формула для ковариации между е и любой переменной х сводится к 1ε^ x . Мы видим, что это ноль, учитывая условие первого порядка для предполагаемого наклона, который заключается в том, что1n−1∑ni=1xiε^i
Если вы привыкли работать с матрицами, мы можем обобщить это на множественную регрессию, определив ; условие первого порядка , чтобы минимизировать S ( б ) при оптимальной б = β является:S(b)=ε′ε=(y−Xb)′(y−Xb) S(b) b=β^
Это подразумевает каждую строку , и , следовательно , каждый столбец X , ортогонально к ε . Тогда , если матрица плана X имеет столбец из единиц (что происходит , если ваша модель имеет свободный член), мы должны иметь Е п я = 1 ε я = 0 , так что остатки имеют нулевую сумму и нулевое среднее значение. Ковариация между е и любой переменной х снова 1X′ X ε^ X ∑ni=1ε^i=0 ε^ x 1n−1∑ni=1xiε^i and for any variable x included in our model we know this sum is zero, because ε^ is orthogonal to every column of the design matrix. Hence there is zero covariance, and zero correlation, between ε^ and any predictor variable x .
Если вы предпочитаете более геометрический взгляд на вещи , наше желание , что у лежит как можно ближе к у в пифагорейской виде пути , и тот факт , что у ограничена в пространстве столбцов матрицы плана X , диктуют у должна быть ортогональная проекция наблюдаемого у на это пространство столбца. Следовательно, вектор остатков ε = у - у ортогонален каждого столбец X , в том числе вектора единиц 1 пy^ y y^ X y^ y ε^=y−y^ X 1n если термин перехвата включен в модель. Как и прежде, это подразумевает, что сумма остатков равна нулю, откуда ортогональность остаточного вектора с другими столбцами гарантирует, что он не связан с каждым из этих предикторов.X
Но ничто из того, что мы здесь сделали, ничего не говорит об истинных ошибках . Предполагая , что существует термин перехватывает в нашей модели, остатки ε только коррелирует с й как математическим следствием того , каким образом мы выбрали для оценки коэффициентов регрессии р . Путь мы выбрали нашу & beta ; влияет на наши прогнозные значения у и , следовательно , наши остатки ε = у - у . Если мы выберем β с помощью МНК, мы должны решить нормальные уравнения и их соблюдение , что наши оцененные невязкиε ε^ x β^ β^ y^ ε^=y−y^ β^ ε^ are uncorrelated with x . Our choice of β^ affects y^ but not E(y) and hence imposes no conditions on the true errors ε=y−E(y) . It would be a mistake to think that ε^ has somehow "inherited" its uncorrelatedness with x from the OLS assumption that ε should be uncorrelated with x . The uncorrelatedness arises from the normal equations.
источник
Simple example:
The data generating process is:
If we ran that regression, we would get estimatesa^ , b^1 , and b^2 , and with enough data, they would converge on a , b1 , and b2 respectively.
(Technical note: We need a little randomness so we don't buy exactly one bun for each burger we buy at every visit to the grocery store. If we did this,x1 and x2 would be collinear.)
An example of omitted variable bias:
Now let's consider the model:
Observe thatui=b2xi,2+ϵi . Hence
Is this zero? Almost certainly not! The purchase of burgersx1 and the purchase of buns x2 are almost certainly correlated! Hence u and x1 are correlated!
What happens if you tried to run the regression?
If you tried to run:
Your estimateb^1 would almost certainly be a poor estimate of b1 because the OLS regression estimates a^,b^,u^ would be constructed so that u^ and x1 are uncorrelated in your sample. But the actual u is correlated with x1 in the population!
What would happen in practice if you did this? Your estimateb^1 of the price of burgers would ALSO pickup the price of buns. Let's say every time you bought a $1 burger you tended to buy a $0.50 bun (but not all the time). Your estimate of the price of burgers might be $1.40. You'd be picking up the burger channel and the bun channel in your estimate of the burger price.
источник
Предположим, что мы строим регрессию веса животного на его рост. Ясно, что вес дельфина будет измеряться по-разному (в другой процедуре и с использованием разных инструментов) от веса слона или змеи. Это означает, что ошибки модели будут зависеть от высоты, то есть объясняющей переменной. Они могут зависеть по-разному. Например, может быть, мы склонны немного переоценивать вес слонов и немного недооценивать змеи и т. Д.
Итак, здесь мы установили, что легко оказаться в ситуации, когда ошибки соотносятся с объясняющими переменными. Теперь, если мы будем игнорировать это и перейти к регрессии , как обычно, мы заметим , что регрессионные остатки являются не коррелируют с дизайном матрицы. Это связано с тем, что по своей конструкции регрессия заставляет невязки быть некоррелированными. Отметим также , что остатки являются не эти ошибки , они по оценкамошибок. Таким образом, независимо от того, коррелируют ли сами ошибки или нет с независимыми переменными, оценки ошибок (невязки) не будут коррелироваться при построении решения уравнения регрессии.
источник