EM не требуется вместо использования некоторой численной техники, потому что EM также является численным методом. Так что это не замена Ньютон-Рафсон. EM для конкретного случая, когда у вас отсутствуют значения в матрице данных. Рассмотрим образец который имеет условную плотность . Тогда логарифмическая вероятность этого равна
Теперь предположим, что у вас нет полного набора данных, так что состоит из наблюдаемых данных. и отсутствующие (или скрытые) переменные , такие что . Тогда логарифмическая вероятность для наблюдаемых данных
е X | Θ ( x | θ ) l ( θ ; X ) = l o g f X | Θ ( X | θ ) X Y Z X = ( Y , Z ) l o b s ( θ , Y ) =Икс= ( X1, . , , , XN)еИкс| Θ( х | θ )
l ( θ ; X) = Л о геИкс| Θ( X| θ)
ИксYZИкс= ( Y, Z)Lо б с( θ , Y) = Л о г∫еИкс| Θ( Y, z| θ) νZ( дZ)
В общем случае вы не можете вычислить этот интеграл напрямую и не получите решение в замкнутой форме для . Для этого вы используете метод EM. Есть два шага, которые повторяются для раз. На этом шаге это шаг ожидания, на котором вы вычисляете
где - оценка на шаге . Затем вычислите шаг максимизации, на котором вы максимизируете относительно и установить
Lо б с( θ ,Y)я( я + 1 )т чQ ( θ | θ( я )) = Eθ( я )[ l ( θ ; X| Y]
θ( я )Θят чQ ( θ | θ( я ))θθ( я + 1 )= m a x Q ( θ | θя) . Затем вы повторяете эти шаги, пока метод не приблизится к некоторому значению, которое будет вашей оценкой.
Если вам нужна дополнительная информация о методе, его свойствах, доказательствах или приложениях, просто взгляните на соответствующую статью в вики .
EM используется потому, что часто невозможно или невозможно напрямую рассчитать параметры модели, которая максимизирует вероятность набора данных для данной модели.
источник