MLE = оценка максимального правдоподобия
MAP = максимум апостериорный
MLE интуитивно понятен / наивен в том смысле, что он начинается только с вероятности наблюдения с учетом параметра (то есть функции правдоподобия) и пытается найти параметр, наилучшим образом соответствующий наблюдению . Но это не принимать во внимание предшествующее знание.
MAP кажется более разумным, потому что он принимает во внимание предшествующее знание через правило Байеса.
Вот связанный вопрос, но ответ не исчерпывающий. /signals/13174/differences-using-maximum-likelihood-or-maximum-a-posteriori-for-deconvolution-d
Итак, я думаю, что MAP намного лучше. Это правильно? И когда я должен использовать какой?
Байесовец согласился бы с вами, а частый - нет. Это вопрос мнения, перспективы и философии. Я думаю, что статистическому сообществу очень вредно пытаться утверждать, что один метод всегда лучше другого. Многие проблемы будут иметь байесовские и частые решения, которые похожи до тех пор, пока байесовский не слишком сильный предшественник.
источник
Предполагая, что у вас есть точная предварительная информация, лучше использовать MAP, если в оценке есть функция с нулевым убытком. Если потеря не равна нулю (а во многих реальных проблемах это не так), то может случиться, что MLE достигнет более низкой ожидаемой потери. В этих случаях было бы лучше не ограничивать себя MAP и MLE как единственными двумя вариантами, поскольку они оба неоптимальны.
источник
Краткий ответ @bean объясняет это очень хорошо. Тем не менее, я хотел бы указать на раздел 1.1 статьи « Выборка Гиббса» для непосвященных Ресником и Хардисти, в которой этот вопрос рассматривается более подробно. Я пишу несколько строк из этой статьи с очень небольшими изменениями (этот ответ повторяет несколько вещей, которые ОП знает для полноты)
MLE
КАРТА
Улов
Так что с этим уловом мы могли бы не использовать ни один из них. Кроме того, как уже упоминалось Бином и Тимом, если вам нужно использовать один из них, используйте MAP, если вы получили ранее. Если у вас нет априоров, MAP уменьшается до MLE. Сопряженные априорные значения помогут решить проблему аналитически, в противном случае используйте выборку Гиббса.
источник
Поскольку мы знаем, чтоθ^MAP=argmaxθlogP(θ|D)=argmaxθlogP(D|θ)P(θ)P(D)=argmaxθlogP(D|θ)P(θ)=argmaxθlogP(D|θ)log-likelihood+logP(θ)regularizer
Приоритет рассматривается как регуляризатор, и если вы знаете предшествующее распределение, например, Гауссин ( ) в линейной регрессии, и лучше добавить, что регуляризация для лучшей производительности.exp(−λ2θTθ)
источник
Если данных меньше и у вас есть априоры - «ПЕРЕЙТИ К КАРТЕ». Если у вас много данных, MAP будет сходиться к MLE. Таким образом, в случае сценария с большим количеством данных всегда лучше делать MLE, а не MAP.
источник