Почему используется алгоритм максимизации ожидания?

22

Из того, что я мало знаю, ЭМ-алгоритм может быть использован для нахождения максимальной вероятности, когда установка на ноль частных производных по параметрам вероятности дает набор уравнений, которые не могут быть решены аналитически. Но нужен ли EM-алгоритм вместо использования какой-либо численной техники, чтобы попытаться найти максимум вероятности в отношении ограничения упомянутой системы уравнений.

user782220
источник

Ответы:

20

Вопрос правомерен, и у меня возникла такая же путаница, когда я впервые выучил алгоритм EM.

В общих чертах алгоритм EM определяет итерационный процесс, который позволяет максимизировать функцию правдоподобия параметрической модели в случае, когда некоторые переменные модели являются (или рассматриваются как) «скрытыми» или неизвестными.

Теоретически для этой же цели вы можете использовать алгоритм минимизации, чтобы численно найти максимум функции правдоподобия для всех параметров. Однако в реальной ситуации эта минимизация будет:

  1. гораздо более интенсивный в вычислительном отношении
  2. менее надежный

Очень распространенное применение метода EM - подбор модели смеси. В этом случае, рассматривая переменную, которая присваивает каждую выборку одному из компонентов в качестве «скрытых» переменных, проблема значительно упрощается.

Давайте посмотрим на пример. У нас есть N выборок извлеченных из смеси 2 нормальных распределений. Чтобы найти параметры без ЭМ, мы должны минимизировать:sзнак равно{sя}

-журналL(Икс,θ)знак равно-журнал[a1ехр((Икс-μ1)22σ12)+a2ехр((Икс-μ2)22σ22)]

Напротив, используя EM-алгоритм, мы сначала «назначаем» каждую выборку компоненту ( шаг E ), а затем подбираем (или максимизируем вероятность ) каждый компонент отдельно ( шаг M ). В этом примере M-шаг - это просто взвешенное среднее значение для поиска и . Повторение этих двух шагов является более простым и надежным способом минимизации .σ k - log L ( x , θ )μКσК-журналL(Икс,θ)

user2304916
источник
12

EM не требуется вместо использования некоторой численной техники, потому что EM также является численным методом. Так что это не замена Ньютон-Рафсон. EM для конкретного случая, когда у вас отсутствуют значения в матрице данных. Рассмотрим образец который имеет условную плотность . Тогда логарифмическая вероятность этого равна Теперь предположим, что у вас нет полного набора данных, так что состоит из наблюдаемых данных. и отсутствующие (или скрытые) переменные , такие что . Тогда логарифмическая вероятность для наблюдаемых данных е X | Θ ( x | θ ) l ( θ ; X ) = l o g f X | Θ ( X | θ ) X Y Z X = ( Y , Z ) l o b s ( θ , Y ) =Иксзнак равно(Икс1,,,,,ИксN)еИкс|Θ(Икс|θ)

L(θ;Икс)знак равноLогеИкс|Θ(Икс|θ)
ИксYZИксзнак равно(Y,Z)
Lобs(θ,Y)знак равноLогеИкс|Θ(Y,Z|θ)νZ(dZ)
В общем случае вы не можете вычислить этот интеграл напрямую и не получите решение в замкнутой форме для . Для этого вы используете метод EM. Есть два шага, которые повторяются для раз. На этом шаге это шаг ожидания, на котором вы вычисляете где - оценка на шаге . Затем вычислите шаг максимизации, на котором вы максимизируете относительно и установитьLобs(θ,Y)я(я+1)Tчас
Q(θ|θ(я))знак равноЕθ(я)[L(θ;Икс|Y]
θ(я)ΘяTчасQ(θ|θ(я))θθ(я+1)знак равномaИксQ(θ|θя) . Затем вы повторяете эти шаги, пока метод не приблизится к некоторому значению, которое будет вашей оценкой.

Если вам нужна дополнительная информация о методе, его свойствах, доказательствах или приложениях, просто взгляните на соответствующую статью в вики .

Энди
источник
1
+1 ... EM не только для случая пропущенных значений.
Glen_b
@ Энди: Даже учитывая случай пропущенных данных, я все еще не понимаю, почему использование общих численных методов для нахождения точки, где частные производные равны нулю, не работает.
user782220
Спасибо Глен, я знал это только в контексте пропущенных значений / скрытых переменных. @ user782220: если вы не можете иметь решение в виде закрытой формы производной логарифмического правдоподобия, установка производной равной нулю не будет определять ваш параметр. Вот почему вы используете численные методы в этом случае. Объяснение и пример см. В лекции здесь: people.stat.sfu.ca/~raltman/stat402/402L5.pdf
Энди
1

EM используется потому, что часто невозможно или невозможно напрямую рассчитать параметры модели, которая максимизирует вероятность набора данных для данной модели.

TheGrimmScientist
источник