1-й пример
Типичный случай - тегирование в контексте обработки естественного языка. Смотрите здесь для подробного объяснения. Идея в основном заключается в том, чтобы иметь возможность определять лексическую категорию слова в предложении (это существительное, прилагательное, ...). Основная идея заключается в том, что у вас есть модель вашего языка, состоящая из скрытой марковской модели ( HMM ). В этой модели скрытые состояния соответствуют лексическим категориям, а наблюдаемые состояния - фактическим словам.
Соответствующая графическая модель имеет вид,
у =(у1 , . , , , уN)х =(х1,..., хN)
После обучения цель состоит в том, чтобы найти правильную последовательность лексических категорий, которые соответствуют заданному входному предложению. Это формулируется как поиск последовательности тегов, которые наиболее совместимы / наиболее вероятно были сгенерированы языковой моделью, т.е.
е( у) = a r g m a xx ∈Yp ( x ) p ( y | x )
2-й пример
На самом деле, лучшим примером будет регрессия. Не только потому, что это легче понять, но и потому, что ясно показывает разницу между максимальной вероятностью (ML) и максимальной апостериорией (MAP).
T
Y( х ; ш ) = ∑явесяφя( х )
ϕ ( x )w
t=y(x;w)+ϵ
p(t|w)=N(t|y(x;w))
E(w)=12∑n(tn−wTϕ(xn))2
что дает хорошо известное решение наименьших квадратов. Теперь ML чувствителен к шуму и при определенных обстоятельствах нестабилен. MAP позволяет подбирать более эффективные решения, накладывая ограничения на весовые коэффициенты. Например, типичным случаем является регрессия гребня, когда требуется, чтобы веса имели как можно меньшую норму,
E(w)=12∑n(tn−wTϕ(xn))2+λ∑kw2k
N(w|0,λ−1I)
w=argminwp(w;λ)p(t|w;ϕ)
Обратите внимание, что в MAP весами являются не параметры, как в ML, а случайные величины. Тем не менее, как ML, так и MAP являются точечными оценщиками (они возвращают оптимальный набор весов, а не распределение оптимальных весов).