Значение начальных переходных вероятностей в скрытой марковской модели

11

Каковы преимущества придания определенных начальных значений вероятностям перехода в скрытой марковской модели? В конце концов система изучит их, так какой смысл давать значения, отличные от случайных? Имеет ли базовый алгоритм такую ​​разницу, как Баум-Уэлч?

Если бы я очень точно знал вероятности перехода в начале, и моя главная цель - предсказать вероятности выхода из скрытого состояния в наблюдения, что бы вы мне посоветовали?

metdos
источник

Ответы:

7

Baum-Welch - это алгоритм оптимизации для вычисления оценки максимального правдоподобия. Для скрытых марковских моделей поверхность правдоподобия может быть довольно уродливой и, конечно, не вогнутой. При хороших начальных точках алгоритм может сходиться быстрее и в сторону MLE.

Если вы уже знаете вероятности перехода и хотите предсказать скрытые состояния с помощью алгоритма Витерби, вам нужны вероятности перехода. Если вы уже знаете их, нет необходимости переоценивать их с помощью Baum-Welch. Переоценка в вычислительном отношении дороже, чем прогноз.

NRH
источник
3

Некоторые материалы, касающиеся начальных оценок HMM, приведены в

Лоуренс Р. Рабинер (февраль 1989 года). «Учебник по скрытым марковским моделям и избранным приложениям в распознавании речи». Слушания IEEE 77 (2): 257–286. doi: 10.1109 / 5.18626 (Раздел VC)

Вы также можете взглянуть на инструментарий вероятностного моделирования для Matlab / Octave , особенно функцию hmmFitEm, где вы можете указать свой собственный начальный параметр модели или просто использовать (опция 'nrandomRestarts'). При использовании nrandomRestarts первая модель (на этапе инициализации) использует:

  • Подберите смесь гауссиан через MLE / MAP (используя EM) для продолжения данных;
  • Подберите смесь продуктов дискретных распределений через MLE / MAP (используя EM) для дискретных данных;

вторая, третья модели ... (на этапе инициализации) используют случайно инициализированные параметры и, как результат, сходятся медленнее, в основном с более низкими значениями логарифмического правдоподобия.

Сергей
источник