Этот вопрос касается оценки ограниченного максимального правдоподобия (REML) в конкретной версии линейной модели, а именно:
где - ( ) матрица, параметризованная , как и . \ beta - неизвестный вектор параметров помех; интерес в оценке \ alpha , и мы имеем k \ leq p \ ll n . Оценка модели по максимальной вероятности не проблема, но я хочу использовать REML. Хорошо известно, смотрите , например , LaMotte , что вероятность А ~ , где любая полуортогональной матрица такой , что А'й = 0 можно записать
когда полный ранг столбца .
Моя проблема в том, что для некоторых совершенно разумных и научно интересных матрица не имеет полного ранга столбца. Все выводы , которые я видел в ограниченной вероятности выше использует детерминантных равенствами, которые не применимы при , то есть они берут на себя полный ранг столбца . Это означает, что приведенная выше ограниченная вероятность верна только для моих настроек на части пространства параметров, и, следовательно, это не то, что я хочу оптимизировать.
Вопрос: Существуют ли более общие ограниченные вероятности, полученные в статистической литературе или где-либо еще, без предположения, что будет полным рангом столбца? Если так, то как они выглядят?
Некоторые наблюдения:
- Вывод экспоненциальной части не является проблемой для любого и он может быть записан в терминах обратного Мура-Пенроуза, как указано выше.
- Столбцы являются (любым) ортонормированным базисом дляC ( X ) ⊥
- Для известного вероятность может быть легко записана для каждого , но, конечно, число базисных векторов, то есть столбцов, в зависит от ранга столбцаA ′ Y α A X
Если кто-то заинтересован в этом вопросе, считает, что точная параметризация поможет, дайте мне знать, и я запишу их. Однако в данный момент меня больше всего интересует REML для общего правильных размеров.X
Более подробное описание модели следует здесь. Пусть - векторная авторегрессия первого порядка [VAR (1)], где . Предположим, что процесс начинается с некоторого фиксированного значения в момент времени .г V т I я d ~ N ( 0 , Ω ) у 0 т = 0
Определите . Модель может быть записана в форме линейной модели с использованием следующих определений и обозначений: Y = X β + ε
где обозначает мерный вектор из единиц и первый стандарт базисный вектор . Т - Э 1 , Т Р Т
Обозначим . Обратите внимание, что если не является полным рангом, то не является полным рангом столбца. Это включает, например, случаи, когда один из компонентов не зависит от прошлого.A X ( α ) y t
Идея оценки VAR с использованием REML хорошо известна, например, в литературе по прогнозирующим регрессиям (см., Например, Phillips и Chen и ссылки в них).
Возможно, стоит пояснить, что матрица не является проектной матрицей в обычном смысле, она просто выпадает из модели, и, если нет априорных знаний об то, насколько я могу судить, способа перепараметризации нет. это будет полный ранг.A
Я разместил вопрос на math.stackexchange, который связан с этим вопросом в том смысле, что ответ на математический вопрос может помочь в определении вероятности ответа на этот вопрос.
Ответы:
Я сомневаюсь, что это наблюдение верно. Обобщенное обратное на самом деле накладывает дополнительное линейное ограничение на ваши оценки [Рао и Митра], поэтому мы должны рассматривать совместную вероятность в целом, а не гадать «обратное Мура-Пенроуза будет работать для экспоненциальной части». Это кажется формально правильным, но вы, вероятно, не правильно понимаете смешанную модель.
Вы должны подумать о смешанном эффекте модели по-другому, прежде чем пытаться механически подключить g-инверсию (ИЛИ инверсию Мура-Пенроуза, которая является особым видом рефлексивного g-инверсии [Rao & Mitra]) в формулу, заданную RMLE (Restricted) Оценщик максимального правдоподобия, то же самое ниже.).
Распространенный образ мышления смешанного эффекта состоит в том, что часть случайного эффекта в матрице проектирования вводится ошибкой измерения, которая носит другое название «стохастический предиктор», если мы больше заботимся о прогнозировании, чем об оценке. Это тоже одна историческая мотивация изучения стохастической матрицы в постановке статистики.
При таком способе мышления вероятность того, что не имеет полного ранга, равна нулю. Это связано с тем, что определяющая функция является непрерывной в элементах матрицы, а нормальное распределение является непрерывным распределением, которое присваивает нулевую вероятность одной точке. Вероятность наличия дефектного ранга положительна, если вы его параметризовали патологически, например .X ( α ) ( α α α αX(α) X(α) ⎛⎝⎜ααααrandomeffect⎞⎠⎟
Таким образом, решение вашего вопроса также довольно простое: вы просто возмущаете свою матрицу дизайна (возмущает только часть с фиксированным эффектом) и использует возмущенную матрицу (которая имеет полный ранг) для выполнения всех выводов. Если ваша модель не имеет сложных иерархий или если сам близок к единственному, я не вижу серьезной проблемы, когда вы берете в конечном результате, так как детерминантная функция непрерывна, и мы можем взять предел внутри детерминантной функции. , И в возмущении образуют обратную X ϵ → 0 l i m ϵ → 0 | X ϵ | = | л я мXϵ(α)=X(α)+ϵ(I000) X ϵ→0 X ϵ I+Xlimϵ→0|Xϵ|=|limϵ→0Xϵ| Xϵ можно получить с помощью теоремы Шермана-Моррисиона-Вудбери. А определитель матрицы приведен в стандартной книге по линейной алгебре, подобной [Horn & Johnson]. Конечно, мы можем написать определитель в терминах каждой записи матрицы, но возмущение всегда предпочтительнее [Horn & Johnson].I+X
Как видите, чтобы иметь дело с частью случайного эффекта в модели, мы должны рассматривать ее как своего рода «параметр неприятности». Проблема в том, является ли RMLE наиболее подходящим способом устранения нежелательных параметров? Даже в GLM и моделях со смешанным эффектом RMLE далеко не единственный выбор. Басу отметил, что многие другие способы устранения параметров в настройке оценки. Сегодня люди предпочитают выбирать между RMLE и байесовским моделированием, потому что они соответствуют двум популярным компьютерным решениям: EM и MCMC соответственно.
На мой взгляд, определенно более целесообразно ввести априор в ситуации с дефектным рангом в части с фиксированным эффектом. Или вы можете перепараметрировать вашу модель, чтобы превратить ее в полноценную.
Кроме того, в случае, если ваш фиксированный эффект не имеет полного ранга, вы можете беспокоиться о неправильно заданной ковариационной структуре, потому что степени свободы в фиксированных эффектах должны были войти в часть ошибки. Чтобы увидеть этот момент более четко, вы можете рассмотреть MLE (также LSE) для GLS (Общая минимальная площадь) где - ковариационная структура члена ошибки, для случая, когда не является полным рангом.β^=(XΣ−1X′)−1Σ−1y Σ X(α)
Проблема не в том, как вы модифицируете RMLE, чтобы он работал, если часть матрицы с фиксированным эффектом не имеет полного ранга; проблема в том, что в этом случае ваша модель может быть проблематичной, если случай с неполным рангом имеет положительную вероятность.
Один уместный случай, с которым я столкнулся, заключается в том, что в пространственном случае люди могут захотеть снизить ранг части с фиксированным эффектом из-за вычислительных соображений [Wikle].
В такой ситуации я не видел ни одного «интересного с научной точки зрения» случая. Можете ли вы указать на некоторую литературу, в которой дело с неполным рангом вызывает серьезную озабоченность? Я хотел бы узнать и обсудить дальше, спасибо.
[Рао и Митра] Рао, Калямпуди Радхакришна и Суджит Кумар Митра. Обобщенная обратная матрица и ее приложения. Том 7. Нью-Йорк: Wiley, 1971.
[Басу] Басу, Дебабрата. «Об устранении неприятных параметров». Журнал Американской статистической ассоциации 72,358 (1977): 355-366.
[Хорн и Джонсон] Хорн, Роджер А. и Чарльз Р. Джонсон. Матричный анализ. Пресса Кембриджского университета, 2012.
[Wikle] Wikle, Кристофер К. «Представления низкого ранга для пространственных процессов». Справочник по пространственной статистике (2010): 107-118.
источник