Я читал, что HMM, Particle Filters и Kalman - особые случаи динамических байесовских сетей. Однако я знаю только HMM и не вижу разницы с динамическими байесовскими сетями.
Может кто-нибудь объяснить, пожалуйста?
Было бы неплохо, если бы ваш ответ мог быть похож на следующий, но для байесовских сетей:
Скрытые марковские модели
Скрытая марковская модель (HMM) представляет собой 5-кортеж :
- : набор состояний (например, «начало фонемы», «середина фонемы», «конец фонемы»)
- : набор возможных наблюдений (аудиосигналы)
- Стохастическая матрица, которая дает вероятности ( a i j ) перейти из состояния i в состояние j .
- Стохастическая матрица, которая дает вероятности ( b k l ) получить в состоянии k наблюдение l .
- : Начальное распространение должно начаться в одном из состояний.
Обычно он отображается в виде ориентированного графа, где каждому узлу соответствует одно состояние а вероятности перехода обозначены на ребрах.
Скрытые марковские модели называются «скрытыми», поскольку текущее состояние скрыто. Алгоритмы должны угадывать это по наблюдениям и самой модели. Их называют «марковскими», потому что для следующего состояния имеет значение только текущее состояние.
Для HMM вы задаете фиксированную топологию (количество состояний, возможные ребра). Тогда есть 3 возможных задания
- Оценка : с учетом HMM , насколько вероятно получить наблюдения o 1 , … , o t (прямой алгоритм)
- Декодирование : с учетом HMM и наблюдений o 1 , … , o t , какова наиболее вероятная последовательность состояний s 1 , … , s t (алгоритм Витерби)
- Обучение : изучение : алгоритм Баума-Уэлча , который является частным случаем максимизации ожиданий.
Байесовские сети
Байесовские сети являются ориентированными ациклическими графами (DAG) . Узлы представляют собой случайные величины X ∈ X . Для каждого X существует распределение вероятностей, которое обусловлено родителями X :
Кажется, есть (пожалуйста, уточните) две задачи:
- Вывод : учитывая некоторые переменные, получить наиболее вероятные значения других переменных. Точный вывод NP-сложен. Примерно, вы можете использовать MCMC.
Обучение : Как вы изучаете эти дистрибутивы, зависит от конкретной проблемы ( источник ):
- известная структура, полностью наблюдаемая: оценка максимального правдоподобия (MLE)
- известная структура, частично наблюдаемая: максимизация ожидания (EM) или цепь Маркова Монте-Карло (MCMC)
- неизвестная структура, полностью наблюдаемая: поиск в модельном пространстве
- неизвестная структура, частично наблюдаемая: EM + поиск в пространстве модели
Динамические байесовские сети
источник
Ответы:
Из аналогичного вопроса перекрестной проверки следует ответ @jerad :
источник