Вопросы с тегом «hidden-markov-model»

Скрытые марковские модели используются для моделирования систем, которые считаются марковскими процессами со скрытыми (т.е. ненаблюдаемыми) состояниями.

57
Ресурсы для изучения цепей Маркова и скрытых марковских моделей

Я ищу ресурсы (учебные пособия, учебники, веб-трансляции и т. Д.), Чтобы узнать о цепи Маркова и HMM. Я работаю биологом, и в настоящее время я участвую в проекте, связанном с биоинформатикой. Кроме того, каковы необходимые математические знания, необходимые для достаточного понимания моделей...

33
Интуитивное различие между скрытыми марковскими моделями и условными случайными полями

Я понимаю, что HMM (скрытые марковские модели) являются порождающими моделями, а CRF - дискриминационными моделями. Я также понимаю, как создаются и используются CRF (условные случайные поля). Что я не понимаю, так это чем они отличаются от HMM? Я читал, что в случае HMM мы можем только...

21
Разница между скрытыми марковскими моделями и фильтром частиц (и фильтром Калмана)

Вот мой старый вопрос Я хотел бы спросить, знает ли кто-нибудь разницу (если есть какая-либо разница) между скрытыми марковскими моделями (HMM) и Particle Filter (PF), и, как следствие, Kalman Filter, или при каких обстоятельствах мы используем какой алгоритм. Я студент, и я должен сделать проект,...

18
Каковы различия между алгоритмом Баум-Уэлча и тренировкой Витерби?

В настоящее время я использую тренировку Витерби для проблемы сегментации изображения. Я хотел знать, в чем преимущества / недостатки использования алгоритма Баума-Уэлча вместо тренировки Витерби....

18
Скрытая марковская модель против модели перехода Маркова против модели состояния пространства…?

Для моей магистерской работы я работаю над разработкой статистической модели для переходов между различными состояниями, определяемыми серологическим статусом. Пока я не буду вдаваться в подробности этого контекста, так как мой вопрос носит более общий / теоретический характер. Во всяком случае,...

18
Обучение скрытой марковской модели, несколько учебных примеров

Я реализовал дискретный HMM в соответствии с этим учебником http://cs229.stanford.edu/section/cs229-hmm.pdf Этот урок и другие всегда говорят о тренировке HMM с учетом последовательности наблюдений. Что происходит, когда у меня несколько тренировочных последовательностей? Должен ли я просто...

17
Использование HMM в количественных финансах. Примеры HMM, который работает, чтобы обнаружить трендовые / поворотные точки?

Я открываю для себя удивительный мир таких «скрытых марковских моделей», которые также называют «моделями переключения режимов». Я хотел бы адаптировать HMM в R для обнаружения трендов и поворотных моментов. Я хотел бы построить модель как можно более общей, чтобы я мог протестировать ее по многим...

14
Скрытая марковская модель, порог

Я разработал концептуальную систему для распознавания звука с использованием моделей mfcc и скрытых марков. Это дает многообещающие результаты, когда я тестирую систему на известные звуки. Хотя система, когда вводится неизвестный звук, возвращает результат с наиболее близким соответствием, и оценка...

13
Скрытая марковская модель против рекуррентной нейронной сети

Какие проблемы последовательного ввода лучше всего подходят для каждого? Определяет ли входная размерность, какое из них лучше подходит? Являются ли проблемы, для которых требуется «более длинная память», более подходящими для RNN LSTM, а проблемы с циклическими шаблонами ввода (фондовый рынок,...

12
Расчет доверительных интервалов с помощью начальной загрузки на основе зависимых наблюдений

Бутстрап в его стандартной форме может использоваться для расчета доверительных интервалов оценочной статистики при условии, что наблюдения выполнены. I. Visser и соавт. в « Доверительных интервалах для скрытых параметров модели Маркова » использовался параметрический загрузчик для расчета КЭ для...

12
Количество параметров в марковской модели

Я хочу использовать BIC для выбора модели HMM: BIC = -2*logLike + num_of_params * log(num_of_data) Итак, как мне посчитать количество параметров в модели HMM. Рассмотрим простой HMM с двумя состояниями, где у нас есть следующие данные: data = [1 2 1 1 2 2 2 1 2 3 3 2 3 2 1 2 2 3 4 5 5 3 3 2 6 6 5 6...

12
Критерии выбора «лучшей» модели в скрытой марковской модели

У меня есть набор данных временного ряда, к которому я пытаюсь подогнать скрытую марковскую модель (HMM), чтобы оценить количество скрытых состояний в данных. Мой псевдокод для этого следующий: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states =...

12
Как я могу обучить HMM для классификации?

Итак, я понимаю, что когда вы готовите HMM для классификации, стандартный подход: Разделите ваши наборы данных на наборы данных для каждого класса Тренируйте один HMM в классе На тестовом наборе сравните вероятность каждой модели для классификации каждого окна Но как мне тренировать HMM в каждом...

11
Определение динамической байесовской системы и ее связь с HMM?

Из Википедии Динамическая байесовская сеть (DBN) - это байесовская сеть, которая связывает переменные друг с другом в течение смежных временных шагов. Это часто называют BN с двумя временами, потому что оно говорит, что в любой момент времени T значение переменной может быть вычислено из внутренних...

11
Марковские цепи против HMM

Марковские цепочки имеют для меня смысл, я могу использовать их для моделирования вероятностных изменений состояния в реальных жизненных задачах. Затем приходит HMM. Говорят, что HMM более подходят для моделирования многих проблем, чем MC. Однако проблемы, о которых упоминают люди, довольно сложны...

11
Значение начальных переходных вероятностей в скрытой марковской модели

Каковы преимущества придания определенных начальных значений вероятностям перехода в скрытой марковской модели? В конце концов система изучит их, так какой смысл давать значения, отличные от случайных? Имеет ли базовый алгоритм такую ​​разницу, как Баум-Уэлч? Если бы я очень точно знал вероятности...

11
Скрытые марковские модели с алгоритмом Баума-Уэлча с использованием питона

Я ищу некоторую реализацию Python (в чистом Python или обертывание существующих материалов) HMM и Baum-Welch. Некоторые идеи? Я только что искал в Google, и я нашел очень плохой материал в отношении других методов машинного обучения....

10
Разница между MLE и Baum Welch на фитингах HMM

В этом популярном вопросе ответ с высоким голосом разделяет MLE и Baum Welch в подгонке HMM. Для задачи обучения мы можем использовать следующие 3 алгоритма: MLE (оценка максимального правдоподобия), обучение Витерби (НЕ путать с декодированием Витерби), Baum Welch = алгоритм прямого и обратного...