Предположим, я наблюдаю векторы независимых переменных и и зависимую переменную . Я хотел бы соответствовать модели вида: где - некоторая положительнозначная дважды дифференцируемая функция, - неизвестный параметр масштабирования, а - гауссовская случайная переменная с нулевой средней (предполагается, что она не зависит от и ). По сути, это настройка теста гетероскедастичности Кенкера (по крайней мере, насколько я понимаю).
У меня есть наблюдений за и , и я хотел бы оценить и . У меня есть несколько проблем:
- Я не уверен, как изобразить проблему оценки как что-то вроде наименьших квадратов (я предполагаю, что есть известный трюк). Мое первое предположение было бы что-то вроде
но я Я не уверен, как решить это численно (возможно, итерационный квазиньютоновский метод может сделать).
- Предполагая, что я могу поставить проблему в здравом уме и найти некоторые оценки , я хотел бы знать распределение оценок, чтобы, например, я мог выполнять проверки гипотез. Я хотел бы проверить два вектора коэффициентов по отдельности, но предпочел бы какой-нибудь способ проверить, например, для заданного .
Ответы:
В несколько более общем контексте с - мерного вектора -observations (ответов или зависимых переменных), матрица -observations (ковариат или зависимых переменных) и параметры такие, что тогда вероятность минус-логарифма равна В вопросе ОП диагонали сY n y X n×p x θ=(β1,β2,σ) Y∼N(Xβ1,Σ(β2,σ))
Последнее предложение мне нравится, потому что оно основано на решениях, которые я уже хорошо знаю. Кроме того, первая итерация - это то, что я хотел бы сделать в любом случае. То есть сначала вычислите начальную оценку помощью обычных наименьших квадратов, игнорируя потенциальную гетероскедастичность, а затем подгоните гамма-блеск к квадратным невязкам, чтобы получить первоначальную оценку просто чтобы проверить, кажется ли более сложной модель стоящей. Итерации, включающие гетероскедастичность в решение наименьших квадратов в качестве весов, могут затем улучшить оценку.β1 β2 −
Что касается второй части вопроса, я, вероятно, рассмотрю возможность вычисления доверительного интервала для линейной комбинации либо с использованием стандартной асимптотики MLE (проверка с помощью симуляций, что асимптотика работает), либо с помощью начальной загрузки.wT1β1+wT2β2
Редактировать: Под стандартной асимптотикой MLE я имею в виду использование многомерного нормального приближения к распределению MLE с ковариационной матрицей обратной информации Фишера. Информация Фишера по определению является ковариационной матрицей градиента . Это зависит в целом от параметров. Если вы можете найти аналитическое выражение для этой величины, вы можете попробовать подключить MLE. В качестве альтернативы вы можете оценить информацию Фишера по наблюдаемой информации Фишера, которая является гессианом в MLE. Ваш интересующий параметр представляет собой линейную комбинацию параметров в двухl l β -векторы, следовательно, из аппроксимирующей многомерной нормали MLE вы можете найти нормальную аппроксимацию распределения оценок, как описано здесь . Это дает вам приблизительную стандартную ошибку, и вы можете вычислить доверительные интервалы. Это хорошо описано во многих (математических) статистических книгах, но разумно доступная презентация, которую я могу порекомендовать, - это « По всей вероятности» Юди Павитан. Во всяком случае, формальный вывод асимптотической теории довольно сложен и опирается на ряд условий регулярности, и он дает только действительную асимптотикуРаспределения. Следовательно, если вы сомневаетесь, я всегда буду делать некоторые симуляции с новой моделью, чтобы проверить, могу ли я доверять результатам для реалистичных параметров и размеров выборки. Простая непараметрическая начальная загрузка, когда вы выбираете тройки из набора наблюдаемых данных с заменой, может быть полезной альтернативой, если процедура подгонки не требует слишком много времени.(yi,xi,zi)
источник