АМС асимптотически эффективен при гетероскедастичности

9

Я знаю, что МНК беспристрастна, но не эффективна при гетероскедастичности в условиях линейной регрессии.

В википедии

http://en.wikipedia.org/wiki/Minimum_mean_square_error

Оценщик MMSE асимптотически несмещен и сходится по распределению к нормальному распределению: n(x^x)dN(0,I1(x)) , где (х) информация Фишера х. Таким образом, оценщик MMSE асимптотически эффективен.

MMSE считается асимптотически эффективным. Я немного запутался здесь.

Означает ли это, что МНК не эффективна в конечной выборке, но асимптотически эффективна при гетероскедастичности?

Критика текущих ответов: пока предлагаемые ответы не касаются ограничивающего распределения.

заранее спасибо

Кагдас Озгенц
источник
Это довольно длинная статья в Википедии. Поскольку, кроме того, они могут быть изменены, не могли бы вы привести цитату, вызывающую путаницу?
хейзеб
1
Информация Фишера получена из функции правдоподобия. Таким образом, это подразумевает, что вероятность была указана правильно. То есть утверждение, на которое вы ссылаетесь, предполагает, что если есть какая-либо гетероскедастичность, регрессия была взвешена таким образом, чтобы гетероскедастичность была правильно задана. См. En.wikipedia.org/wiki/Least_squares#Weighted_least_squares . На практике мы часто не знаем формы гетероскедастичности, поэтому мы иногда принимаем неэффективность, а не рискуем смещать регрессию, не уточняя схемы взвешивания.
Захари Блюменфельд
@ZacharyBlumenfeld В статье не было предположения о распределении x. Как мы получили информацию о Фишере?
Кагдас Озгенц
1
См. En.wikipedia.org/wiki/Fisher_information. В статье подразумевается распределение по и e, когда оно принимает ожидания в разделе определения. Обратите внимание, что гомоскедастичность там никогда не предполагалась. В контексте МНК гомоскедактичность предполагала eN ( 0 , σ I ) , I единичная матрица. Гетероскедактичность учитывает eN ( 0 , D ) , любую диагональную положительную полуопределенность D. Использование D приведет к другой информации о Фишере, чем использованиеxeeN(0,σI)IeN(0,D)DD . σI
Захари Блюменфельд
где я могу увидеть доказательство этого факта, что «MMSE сходится в распределении к нормальному распределению?»
Хаджир

Ответы:

3

Статья никогда не предполагала гомоскадастичность в определении. Для того, чтобы поместить его в контексте статьи, гомоскедастичности бы говоря : , где

E{(x^x)(x^x)T}=σI
это п × п единичная матрицаа σ является скаляром положительное число. Гетероскадастичность позволяет In×nσ

E{(x^x)(x^x)T}=D

Любой диаганол положительно определен. В статье ковариационная матрица определяется наиболее общим из возможных способов, как центрированный второй момент некоторого неявного многовариантного распределения. мы должны знать , многомерное распределение е получить асимптотический эффективную и последовательную оценку х . Это будет происходить из функции правдоподобия (которая является обязательным компонентом апостериорного значения). Например, предположим , е ~ N ( 0 , Σ ) (т.е. Е { ( х - х ) ( х - хDex^eN(0,Σ)является многомерной нормальной PDF. . Затем подразумеваемая функция правдоподобия журнал [ L ] = журнал [ φ ( х - х , Σ ) ] , где φE{(x^x)(x^x)T}=Σ

log[L]=log[ϕ(x^x,Σ)]
ϕ

Информационная матрица Фишера может быть записана как см. en.wikipedia.org/wiki/Fisher_information для получения дополнительной информации. Отсюда мы можем вывести

I(x)=E[(xlog[L])2|x]
n(x^x)dN(0,I1(x))

yx

E{y|x}=xβ
log[L]=log[ϕ(yxβ,σI)]
log[L]=i=1nlog[φ(yxβ,σ)]
φ
I(β)=[σ(xx)1]1

β

log[L]=log[ϕ(yxβ,D)]
β 1nI1(β)
Захари Блюменфельд
источник
Спасибо за все время, которое вы провели. Тем не менее, я думаю, что запись в вики - полная чушь. MMSE не даст эффективности, и нигде не указано, что образцы взвешены надлежащим образом. Более того, даже если мы предположим, что выборки взвешены, это все равно не эффективная оценка, если распределение не является гауссовым, что также не указано.
Кагдас Озгенц
@CagdasOzgenc Я с уважением не согласен. Статья сформулирована общим байесовским способом, который может включать в себя регрессию, но также и многие другие модели (кажется, что она больше нацелена на фильтр Калмана). Вероятность является наиболее эффективной оценщиком, когда она известна, это базовое свойство вероятности. То, что вы говорите, относится строго к подмножеству регрессионных моделей (хотя и среди наиболее широко применяемых моделей), где предполагается нормальность при выводе условий первого порядка.
Захари Блюменфельд
1
Вы сказали это сами. К сожалению, статья не об оценке вероятности. Это минимальная среднеквадратичная оценка, которая эффективна, когда выполняются определенные условия.
Кагдас Озгенц
Хорошо, я согласен не согласиться :) Возможно, существует конфликт с определением MMSE между тем, как он используется в наиболее частой регрессии и как он применяется здесь в более байесовской обстановке. Возможно, они должны изобрести новое имя для этого. Тем не менее, вероятности (или, возможно, другие непараметрические оценки) подразумеваются при принятии независимых ожиданий для каждого квадрата остатка. особенно в байесовской обстановке (иначе как бы мы оценили это?). После поиска в Google я нашел много похожих результатов, чем в Википедии. В любом случае я согласен с тем, что терминологией злоупотребляют.
Захари Блюменфельд
2

Нет, OLS не эффективен при гетероскедастичности. Эффективность оценки получается, если оценка имеет наименьшую дисперсию среди других возможных оценок. Утверждения об эффективности в МНК делаются независимо от предельного распределения оценки.

случайный парень
источник