Предположим, у меня есть следующая модель
где , - вектор объясняющих переменных, - параметры нелинейной функции и , где естественно, матрица.
Целью является обычная оценка и . Очевидный выбор - метод максимального правдоподобия. Логарифмическая вероятность для этой модели (при условии, что у нас есть образец ) выглядит следующим образом
Теперь это кажется простым, логарифмическая правдоподобность указывается, вводится в данные и использует некоторый алгоритм для нелинейной оптимизации. Проблема заключается в том, чтобы убедиться, что положительно определен. Использование, например, optim
в R (или любом другом алгоритме нелинейной оптимизации) не гарантирует мне, что положительно определен.
Таким образом, вопрос заключается в том, как обеспечить, чтобы оставалась положительно определенной? Я вижу два возможных решения:
Reparametrise as где - верхнетреугольная или симметричная матрица. Тогда всегда будет положительно определенным и может быть неограниченным.
Используйте профиль вероятности. Выведите формулы для и . Начните с некоторого и итерируйте , до схождения.
Есть ли какой-то другой способ, и как насчет этих двух подходов, они будут работать, они стандартные? Это кажется довольно стандартной проблемой, но быстрый поиск не дал мне никаких указаний. Я знаю, что байесовская оценка была бы также возможна, но на данный момент я не хотел бы участвовать в ней.
Ответы:
Предполагая, что при построении ковариационной матрицы вы автоматически решаете проблему симметрии, ваша логарифмическая вероятность будет когда не является положительно определенным из-за термина в модель не так ли? Чтобы предотвратить числовую ошибку, если я бы предварительно вычислил и, если она не является положительной, затем сделал равной вероятность записи -Inf, в противном случае продолжу. Вы все равно должны рассчитать определитель, так что это не потребует дополнительных затрат. Σ log d e t Σ d e t Σ < 0 d e t Σ−∞ Σ logdet Σ det Σ<0 det Σ
источник
Как выясняется, вы можете использовать профиль максимального правдоподобия для обеспечения необходимых свойств. Вы можете доказать, что для данного , максимизируется л( θ ,Σ)θ^ l(θ^,Σ)
где
Тогда можно показать, что
следовательно, нам нужно только максимизировать
Естественно, в этом случае будет удовлетворять все необходимые свойства. Доказательства идентичны для случая, когда линейна, что можно найти в «Анализе временных рядов » Дж. Д. Гамильтона, стр. 295, поэтому я их опускаю.FΣ f
источник
Альтернативная параметризация для ковариационной матрицы выражается в терминах собственных значений и углов «Гивенса» . p ( p - 1 ) / 2 θ i jλ1,...,λp p(p−1)/2 θij
То есть мы можем написать
где ортонормирован, иG
с .λ1≥ . , , ≥ λп≥ 0
Между тем, может быть уникально параметризована в терминах углов, , где и . [1]г p ( p - 1 ) / 2 θя ж я = 1 , 2 , . , , , п - 1 J = я , . , , , п - 1
(подробности будут добавлены)
[1]: Хоффман, Раффенетти, Рюденберг. «Обобщение углов Эйлера на N-мерные ортогональные матрицы». J. Math. Phys. 13, 528 (1972)
источник
В соответствии с решением charles.y.zheng, вы можете захотеть смоделировать , где - диагональная матрица, а - разложение Холецкого ранга, обновляющего , Только тогда вам нужно сохранить положительную диагональ чтобы сохранить положительную определенность . То есть вы должны оценить диагональ и элементы вместо оценки .Σ=Λ+CC⊤ Λ C Λ Λ Σ Λ C Σ
источник