Как обеспечить свойства ковариационной матрицы при подборе многомерной нормальной модели с использованием максимального правдоподобия?

22

Предположим, у меня есть следующая модель

Yязнак равное(Икся,θ)+εя

где , - вектор объясняющих переменных, - параметры нелинейной функции и , где естественно, матрица.YярКИксяθеεя~N(0,Σ)ΣК×К

Целью является обычная оценка и . Очевидный выбор - метод максимального правдоподобия. Логарифмическая вероятность для этой модели (при условии, что у нас есть образец ) выглядит следующим образомθΣ(Yя,Икся),язнак равно1,,,,,N

L(θ,Σ)знак равно-N2журнал(2π)-N2журналйеΣ-Σязнак равно1N(Yя-е(Икся,θ))'Σ-1(Y-е(Икся,θ)))

Теперь это кажется простым, логарифмическая правдоподобность указывается, вводится в данные и использует некоторый алгоритм для нелинейной оптимизации. Проблема заключается в том, чтобы убедиться, что Σ положительно определен. Использование, например, optimв R (или любом другом алгоритме нелинейной оптимизации) не гарантирует мне, что Σ положительно определен.

Таким образом, вопрос заключается в том, как обеспечить, чтобы Σ оставалась положительно определенной? Я вижу два возможных решения:

  1. Reparametrise Σ as рр' где р - верхнетреугольная или симметричная матрица. Тогда Σ всегда будет положительно определенным и р может быть неограниченным.

  2. Используйте профиль вероятности. Выведите формулы для θ^(Σ) и Σ^(θ) . Начните с некоторого θ0 и итерируйте Σ^Jзнак равноΣ^(θ^J-1) , θ^Jзнак равноθ^(Σ^J-1) до схождения.

Есть ли какой-то другой способ, и как насчет этих двух подходов, они будут работать, они стандартные? Это кажется довольно стандартной проблемой, но быстрый поиск не дал мне никаких указаний. Я знаю, что байесовская оценка была бы также возможна, но на данный момент я не хотел бы участвовать в ней.

mpiktas
источник
У меня та же проблема в алгоритме Калмана, но проблема намного сложнее и не так проста в использовании трюка Гамильтона. Тогда мне интересно, проще ли было бы использовать . Таким образом, я заставляю код не выдавать ошибку и не менять решение. Это также имеет то преимущество, что этот термин имеет тот же знак, что и заключительная часть вероятности. Любые идеи? журнал(йеΣ+1)
econ_pipo

Ответы:

6

Предполагая, что при построении ковариационной матрицы вы автоматически решаете проблему симметрии, ваша логарифмическая вероятность будет когда не является положительно определенным из-за термина в модель не так ли? Чтобы предотвратить числовую ошибку, если я бы предварительно вычислил и, если она не является положительной, затем сделал равной вероятность записи -Inf, в противном случае продолжу. Вы все равно должны рассчитать определитель, так что это не потребует дополнительных затрат. Σ log d e t Σ d e t Σ < 0 d e t Σ-ΣжурналdеT ΣdеT Σ<0dеT Σ

макрос
источник
5

Как выясняется, вы можете использовать профиль максимального правдоподобия для обеспечения необходимых свойств. Вы можете доказать, что для данного , максимизируется л( θ ,Σ)θ^L(θ^,Σ)

Σ^знак равно1NΣязнак равно1Nε^яε^я',

где

ε^язнак равноYя-е(Икся,θ^)

Тогда можно показать, что

i=1n(yif(xi,θ^))Σ^1(yf(xi,θ^)))=const,

следовательно, нам нужно только максимизировать

lR(θ,Σ)=n2logdetΣ^.

Естественно, в этом случае будет удовлетворять все необходимые свойства. Доказательства идентичны для случая, когда линейна, что можно найти в «Анализе временных рядов » Дж. Д. Гамильтона, стр. 295, поэтому я их опускаю.FΣf

mpiktas
источник
3

Альтернативная параметризация для ковариационной матрицы выражается в терминах собственных значений и углов «Гивенса» . p ( p - 1 ) / 2 θ i jλ1,...,λpp(p1)/2θij

То есть мы можем написать

Σ=GTΛG

где ортонормирован, иG

Λ=diag(λ1,...,λp)

с .λ1,,,λп0

Между тем, может быть уникально параметризована в терминах углов, , где и . [1]гп(п-1)/2θяJязнак равно1,2,,,,,п-1Jзнак равноя,,,,,п-1

(подробности будут добавлены)

[1]: Хоффман, Раффенетти, Рюденберг. «Обобщение углов Эйлера на N-мерные ортогональные матрицы». J. Math. Phys. 13, 528 (1972)

charles.y.zheng
источник
Матрица фактически ортогональна, потому что является симметричной матрицей. Это тот подход, который я собирался рекомендовать - в основном это вращение вектора и модельной функции чтобы ошибки были независимыми, а затем применение OLS к каждому из повернутых компонентов (я думаю). гΣYяе(Икся,θ)
вероятностная
2

В соответствии с решением charles.y.zheng, вы можете захотеть смоделировать , где - диагональная матрица, а - разложение Холецкого ранга, обновляющего , Только тогда вам нужно сохранить положительную диагональ чтобы сохранить положительную определенность . То есть вы должны оценить диагональ и элементы вместо оценки .Σзнак равноΛ+ССΛCΛΛΣΛCΣ

shabbychef
источник
Могут ли элементы диагонали ниже диагонали в этих настройках быть тем, что я хочу, если диагональ положительна? При моделировании матриц таким способом в numy не все они являются положительно определенными.
Шталь
Λ - это диагональная матрица.
Шаббычеф