При выполнении регрессии, если мы перейдем к определению из: Какова разница между частичной вероятностью, профильной вероятностью и предельной вероятностью?
что Максимальное правдоподобие
Найти β и θ, который максимизирует L (β, θ | данных).
В то время как предельное правдоподобие
Мы интегрируем θ из уравнения правдоподобия, используя тот факт, что мы можем определить распределение вероятности θ, условного на β.
Какую методологию лучше использовать и почему?
источник
Я сам сейчас занимаюсь этим вопросом. Вот результат, который может быть полезным. Рассмотрим линейную модель
где и & beta ; и σ 2 являются параметры , представляющие интерес. Совместная вероятностьy∈Rn,β∈Rp, β σ2
Оптимизация совместной вероятности доходности
где представляет собой Псевдообратный X и г = у - Х β является нужным остаточный вектор. Отметим , что в σ 2 мы имеем 1 / п вместо привычных степенями свободы корректируется соотношение 1 / ( п - р ) . Известно, что эта оценка смещена в случае конечной выборки.X+ X r=y−Xβ^ σ^2 1/n 1/(n−p)
Теперь предположим, что вместо оптимизации как и σ 2 мы интегрируем β out и оцениваем σ 2 из полученной интегрированной вероятности:β σ2 β σ2
Используя элементарную линейную алгебру и гауссову интегральную формулу, вы можете показать, что
Это имеет поправку на степени свободы, которая делает его беспристрастным и в целом предпочтительным по сравнению с совместной оценкой ОД.
Из этого результата можно было бы спросить, есть ли что-то по преимуществу в интегрированной вероятности, но я не знаю каких-либо общих результатов, которые отвечают на этот вопрос. Похоже, консенсус заключается в том, что интегрированный ML лучше учитывает неопределенность в большинстве проблем оценки. В частности, если вы оцениваете величину, которая зависит от других оценок параметров (даже неявно), то интеграция по другим параметрам будет лучше учитывать их неопределенности.
источник
источник