Разница между байесовскими сетями и марковским процессом?

28

В чем разница между байесовской сетью и марковским процессом?

Я полагал, что понял принципы обоих, но теперь, когда мне нужно сравнить два, я чувствую себя потерянным Они значат почти то же самое для меня. Конечно, нет.

Ссылки на другие ресурсы также приветствуются.

рокзвезда
источник
Я помню, кто-то сказал мне на этом сайте, байесовские сети не обязательно требуют байесовского вывода. Их имена происходят из правила Байеса.
Тим

Ответы:

21

Вероятностная графическая модель (PGM) представляет собой график , формализм для моделирования компактно распределения совместных вероятностей и (в) Зависимость отношения на множестве случайных величин. PGM называется байесовской сетью, когда основной граф направлен, и марковской сетью / марковским случайным полемкогда базовый граф не является ненаправленным. Вообще говоря, вы используете первое для моделирования вероятностного влияния между переменными, имеющими четкую направленность, в противном случае вы используете второе; в обеих версиях PGM отсутствие ребер в связанных графах представляет условную независимость в закодированных распределениях, хотя их точная семантика отличается. «Марков» в «сети Маркова» относится к общему понятию условной независимости, закодированному PGM, при этом набор случайных переменных не зависит от других учитывая некоторый набор «важных» переменных (техническое название - марковский одеяло ), т.е. .ИксAИксСИксВп(ИксA|ИксВ,ИксС)знак равноп(ИксA|ИксВ)

Марковский процесс является любым случайным процессом , удовлетворяющей марковость . Здесь акцент делается на совокупности (скалярных) случайных величин обычно рассматриваемых как индексируемые по времени, которые удовлетворяют определенному виду условной независимости, т. «Будущее не зависит от прошлого с учетом настоящего ", грубо говоря, . Это особый случай понятия Маркова, определенного PGM: просто возьмите множество и возьмите в качестве любого подмножества и вызвать предыдущее утверждение{ИксT}X 1 , X 2 , X } C { t - 1 , t -Икс1,Икс2,Икс3,,,,п(ИксT+1|ИксT,ИксT-1,,,,,Икс1)знак равноп(ИксT+1|ИксT)Aзнак равно{T+1},Взнак равно{T}С{T-1,T-2,,,,,1}п(ИксA|ИксВ,ИксС)знак равноп(ИксA|ИксВ) . Отсюда видно, что марковское одеяло любой переменной является ее предшественником .ИксT+1ИксT

Поэтому вы можете представить марковский процесс с помощью байесовской сети в виде линейной цепочки, индексированной по времени (для простоты мы рассматриваем здесь только случай дискретного времени / состояния; рисунок из книги PRML Бишопа): введите описание изображения здесь этот вид байесовской сети известен как динамическая байесовская сеть . Поскольку это байесовская сеть (следовательно, PGM), можно применять стандартные алгоритмы PGM для вероятностного вывода (например, алгоритм суммирования, в котором уравнения Чепмена-Колмогорова представляют собой особый случай) и оценки параметров (например, максимальное правдоподобие, которое кипит). до простого подсчета) по цепочке. Примером применения этого являются модель языка HMM и n-грамм.

Часто вы видите диаграмму с изображением цепи Маркова, подобной этойвведите описание изображения здесь

Это не PGM, потому что узлы - это не случайные переменные, а элементы пространства состояний цепочки; ребра соответствуют (ненулевым) переходным вероятностям между двумя последовательными состояниями. Вы также можете думать об этом графе как об описании CPT (таблица условной вероятности) цепочки PGM. Эта цепочка Маркова кодирует только состояние мира на каждой временной метке как одну случайную переменную ( настроение ); Что, если мы хотим захватить другие взаимодействующие аспекты мира (такие как Здоровье и Доход какого-то человека) и рассматривать как вектор случайных величинп(ИксT|ИксT-1)Х т ( Х ( 1 ) т , . . . Х ( Д ) тИксT(ИксT(1),,,,ИксT(D))? Именно здесь могут помочь PGM (в частности, динамические байесовские сети). Мы можем моделировать сложные распределения для с использованием условной байесовской сети, обычно называемой 2TBN ( байесовская сеть с 2 временными интервалами ), которую можно рассматривать как более привлекательную версию байесовской сети с простой цепью.п(ИксT(1),,,,ИксT(D)|ИксT-1(1),,,,ИксT-1(D))

TL; DR : байесовская сеть - это разновидность PGM (вероятностная графическая модель), которая использует направленный (ациклический) граф для представления факторизованного распределения вероятностей и связанной с ним условной независимости над набором переменных. Марковский процесс - это случайный процесс (обычно рассматриваемый как совокупность случайных величин) со свойством «будущее, независимое от прошлого, данного настоящим»; больше внимания уделяется изучению эволюции единственной «шаблонной» случайной величины во времени (часто как ). (Скалярный) марковский процесс определяет специфическое свойство условной независимостиИксTTп(ИксT+1|ИксT,ИксT-1,,,,,Икс1)знак равноп(ИксT+1|ИксT)и, следовательно, может быть тривиально представлен цепочкой байесовской сети, в то время как динамические байесовские сети могут использовать полную репрезентативную мощность МПГ ​​для моделирования взаимодействий между множеством случайных величин (то есть случайных векторов) во времени; отличная ссылка на это - глава 6 книги Дафни Коллер .

Ибо Ян
источник
17

Сначала несколько слов о марковских процессах. Существует четыре различных вида этого зверя, в зависимости от пространства состояний (дискретный / непрерывный) и переменной времени (дискретный / непрерывный). Общая идея любого марковского процесса состоит в том, что «с учетом настоящего, будущее не зависит от прошлого».

Простейшим марковским процессом является дискретное и конечное пространство, а также цепь Маркова с дискретным временем. Вы можете визуализировать его как набор узлов с направленными ребрами между ними. Граф может иметь циклы и даже циклы. На каждом ребре вы можете написать число от 0 до 1 таким образом, чтобы для каждого узла номера на ребрах, выходящих из этого узла, суммировали до 1.

Теперь представьте себе следующий процесс: вы начинаете в заданном состоянии A. Каждую секунду вы случайным образом выбираете исходящий фронт из состояния, в котором находитесь в данный момент, с вероятностью выбора этого края, равного числу на этом крае. Таким образом, вы генерируете случайным образом последовательность состояний.

Очень классная визуализация такого процесса может быть найдена здесь: http://setosa.io/blog/2014/07/26/markov-chains/

Вывод состоит в том, что графическое представление Марковского процесса с дискретным пространством в дискретном времени является общим графом, представляющим распределение по последовательностям узлов графа (заданный начальный узел или начальное распределение по узлам).

С другой стороны, байесовская сеть - это DAG ( направленный ациклический граф ), который представляет факторизацию некоторого совместного распределения вероятностей. Обычно это представление пытается учесть условную независимость между некоторыми переменными, упростить график и уменьшить количество параметров, необходимых для оценки совместного распределения вероятностей.

sjm.majewski
источник
3

Пока я искал ответ на тот же вопрос, я наткнулся на эти ответы. Но никто из них не проясняет тему. Когда я нашел несколько хороших объяснений, я хотел поделиться с людьми, которые думали, как я.

В книге «Вероятностные рассуждения в интеллектуальных системах: сети правдоподобного вывода», написанной Иудеей Перл, глава 3: Марковские и байесовские сети: два графических представления вероятностных знаний, с.116:

Основным недостатком марковских сетей является их неспособность представлять индуцированные и нетранзитивные зависимости; две независимые переменные будут напрямую связаны ребром, просто потому, что какая-то другая переменная зависит от обоих. В результате многие полезные независимости остаются непредставленными в сети. Чтобы преодолеть этот недостаток, байесовские сети используют более богатый язык ориентированных графов, где направления стрелок позволяют нам отличать подлинные зависимости от ложных зависимостей, вызванных гипотетическими наблюдениями.

Vezir
источник
1

Марковский процесс - это случайный процесс с марковским свойством (когда индексом является время, марковское свойство является особой условной независимостью, которая говорит, что данные в настоящем, прошлом и будущем независимы.)

Байесовская сеть - это ориентированная графическая модель. (Марковское случайное поле - это неориентированная графическая модель.) Графическая модель фиксирует условную независимость, которая может отличаться от марковского свойства.

Я не знаком с графическими моделями, но я думаю, что графическая модель может рассматриваться как случайный процесс.

Тим
источник
1

- Общая идея любого марковского процесса заключается в том, что «с учетом настоящего, будущее не зависит от прошлого».

- Общая идея любого байесовского метода заключается в том, что «с учетом предыдущего, будущее не зависит от прошлого», его параметры, если они проиндексированы наблюдениями, будут следовать марковскому процессу.

PLUS

«все следующее будет таким же, как я обновляю свои убеждения

  • вы даете мне новую информацию A, затем вы даете мне новую информацию B,
  • Вы даете мне новую информацию B, а затем новую информацию A
  • Вы даете мне А и Б вместе "

Таким образом, его параметры действительно будут марковским процессом, индексированным по времени, а не по наблюдениям

никола
источник