Вывод в линейной модели с условной гетероскедастичностью

9

Предположим, я наблюдаю векторы независимых переменных и и зависимую переменную . Я хотел бы соответствовать модели вида: где - некоторая положительнозначная дважды дифференцируемая функция, - неизвестный параметр масштабирования, а - гауссовская случайная переменная с нулевой средней (предполагается, что она не зависит от и ). По сути, это настройка теста гетероскедастичности Кенкера (по крайней мере, насколько я понимаю).xzy

y=xβ1+σg(zβ2)ϵ,
gσϵxz

У меня есть наблюдений за и , и я хотел бы оценить и . У меня есть несколько проблем:nx,zyβ1β2

  1. Я не уверен, как изобразить проблему оценки как что-то вроде наименьших квадратов (я предполагаю, что есть известный трюк). Мое первое предположение было бы что-то вроде но я Я не уверен, как решить это численно (возможно, итерационный квазиньютоновский метод может сделать).
    minβ1,β2(i=1n(yixiβ1)2g(ziβ2)2)(i=1n1g(ziβ2)2)1,
  2. Предполагая, что я могу поставить проблему в здравом уме и найти некоторые оценки , я хотел бы знать распределение оценок, чтобы, например, я мог выполнять проверки гипотез. Я хотел бы проверить два вектора коэффициентов по отдельности, но предпочел бы какой-нибудь способ проверить, например, для заданного .β^1,β^2 H0:w1β1+w2β2cw1,w2,c
shabbychef
источник
Хороший вопрос. У вас есть представление о том, как выглядит? это гладко? у него есть прыжки? Вместо наименьшего квадрата вы пробовали максимальное правдоподобие (знаете ли вы эту статью projecteuclid.org/… ?)g
Робин Джирард
@robin girard: MLE - хорошая идея для вопроса 1. Я подозреваю, что для ошибок Гаусса MLE даст те же оценки, что и моя специальная минимизация. Что касается , как я уже отметил, мы можем предположить, что оно положительно и дважды дифференцируемо. Вероятно, мы можем предположить, что оно также является выпуклым, и, возможно, мы можем предположить, что оно аналитическое. g
Шаббычеф

Ответы:

5

В несколько более общем контексте с - мерного вектора -observations (ответов или зависимых переменных), матрица -observations (ковариат или зависимых переменных) и параметры такие, что тогда вероятность минус-логарифма равна В вопросе ОП диагонали с YnyXn×pxθ=(β1,β2,σ)YN(Xβ1,Σ(β2,σ))

l(β1,β2,σ)=12(YXβ1)TΣ(β2,σ)1(YXβ1)+12log|Σ(β2,σ)|
Σ(β2,σ)
Σ(β2,σ)ii=σ2g(ziTβ2)2
поэтому определителем становится и полученная вероятность минус-логарифмирования становится Существует несколько способов приблизиться к минимизации этой функции (при условии, что три параметра не зависят от изменения).σ2ni=1ng(ziTβ2)2
12σ2i=1n(yixiTβ1)2g(ziTβ2)2+nlogσ+i=1nlogg(ziTβ2)
  • Вы можете попытаться минимизировать функцию с помощью стандартного алгоритма оптимизации, помня об ограничении .σ>0
  • Вы можете вычислить профиль минус логарифмическая вероятность , минимизировав значение over для фиксированного , а затем подключить полученную функцию к стандартному алгоритму оптимизации без ограничений.(β1,β2)σ(β1,β2)
  • Вы можете переключаться между оптимизацией по каждому из трех параметров в отдельности. Оптимизация по может быть выполнена аналитически, оптимизация по - это проблема регрессии взвешенных наименьших квадратов, а оптимизация по эквивалентна подгонке линейной гамма-обобщенной модели с обратной связью .σβ1β2g2

Последнее предложение мне нравится, потому что оно основано на решениях, которые я уже хорошо знаю. Кроме того, первая итерация - это то, что я хотел бы сделать в любом случае. То есть сначала вычислите начальную оценку помощью обычных наименьших квадратов, игнорируя потенциальную гетероскедастичность, а затем подгоните гамма-блеск к квадратным невязкам, чтобы получить первоначальную оценку просто чтобы проверить, кажется ли более сложной модель стоящей. Итерации, включающие гетероскедастичность в решение наименьших квадратов в качестве весов, могут затем улучшить оценку.β1β2

Что касается второй части вопроса, я, вероятно, рассмотрю возможность вычисления доверительного интервала для линейной комбинации либо с использованием стандартной асимптотики MLE (проверка с помощью симуляций, что асимптотика работает), либо с помощью начальной загрузки.w1Tβ1+w2Tβ2

Редактировать: Под стандартной асимптотикой MLE я имею в виду использование многомерного нормального приближения к распределению MLE с ковариационной матрицей обратной информации Фишера. Информация Фишера по определению является ковариационной матрицей градиента . Это зависит в целом от параметров. Если вы можете найти аналитическое выражение для этой величины, вы можете попробовать подключить MLE. В качестве альтернативы вы можете оценить информацию Фишера по наблюдаемой информации Фишера, которая является гессианом в MLE. Ваш интересующий параметр представляет собой линейную комбинацию параметров в двухllβ-векторы, следовательно, из аппроксимирующей многомерной нормали MLE вы можете найти нормальную аппроксимацию распределения оценок, как описано здесь . Это дает вам приблизительную стандартную ошибку, и вы можете вычислить доверительные интервалы. Это хорошо описано во многих (математических) статистических книгах, но разумно доступная презентация, которую я могу порекомендовать, - это « По всей вероятности» Юди Павитан. Во всяком случае, формальный вывод асимптотической теории довольно сложен и опирается на ряд условий регулярности, и он дает только действительную асимптотикуРаспределения. Следовательно, если вы сомневаетесь, я всегда буду делать некоторые симуляции с новой моделью, чтобы проверить, могу ли я доверять результатам для реалистичных параметров и размеров выборки. Простая непараметрическая начальная загрузка, когда вы выбираете тройки из набора наблюдаемых данных с заменой, может быть полезной альтернативой, если процедура подгонки не требует слишком много времени.(yi,xi,zi)

NRH
источник
то , что есть стандартный асимптотик MLE?
Шаббычеф
@shabbychef, было уже поздно. Я дал более подробное объяснение. Обратите внимание, что для асимптотики, чтобы работать в теории, как объяснено, модель должна быть правильной, и оценщик должен быть MLE. Более общие результаты могут быть получены в рамках общих оценивающих функций и оценивающих уравнений, см., Например, книгу « Квази-правдоподобие и ... » Хейда.
NRH