Хорошо, это довольно простой вопрос, но я немного запутался. В своей диссертации я пишу:
Стандартные ошибки могут быть найдены путем вычисления обратного корня квадратного из диагональных элементов (наблюдаемой) информационной матрицы Фишера:
Так как команда оптимизации в R сводитминимуму-журналл(наблюдаемые) Фишера Информационная матрица может быть найдена путем вычисления обратной гессианом: Я(μ,сг2)=Н-1
Мой главный вопрос: это правильно, что я говорю ?
Я немного растерялся, потому что в этом источнике на странице 7 говорится:
Информационная матрица отрицательна от ожидаемого значения гессенской матрицы
(Так что нет обратного гессиана.)
Принимая во внимание, что в этом источнике на странице 7 (сноска 5) говорится:
Наблюдаемая информация Фишера равна .
(Так вот обратное.)
Я знаю о знаке минус и когда его использовать, а когда нет, но почему есть разница в принятии обратного или нет?
источник
Ответы:
Юди Павитан пишет в своей книге « По всей вероятности», что второй производной логарифмического правдоподобия, оцененного по оценкам максимального правдоподобия (MLE), является наблюдаемая информация Фишера (см. Также этот документ , стр. 2). Это именно то , что большинство алгоритмов оптимизации , как
optim
вR
свою очередь: Гессе оценивается в ОМП. Когда отрицательныйлогарифмическая вероятность минимальна, отрицательный гессиан возвращается. Как вы правильно заметили, оцененные стандартные ошибки MLE представляют собой квадратные корни диагональных элементов, обратных к наблюдаемой информационной матрице Фишера. Другими словами: квадратные корни диагональных элементов обратного гессиана (или отрицательного гессиана) являются оценочными стандартными ошибками.Резюме
Формально
источник
Оценка функций правдоподобия влечет за собой двухэтапный процесс.
Сначала объявляется функция логарифмического правдоподобия. затем оптимизируются функции логарифмического правдоподобия. Все в порядке.
источник