Вопросы с тегом «variational-bayes»

Вариационные байесовские методы аппроксимируют неразрешимые интегралы, найденные в байесовском выводе и машинном обучении. В первую очередь, эти методы служат одной из двух целей: аппроксимация апостериорного распределения или ограничение предельной вероятности наблюдаемых данных.

37
Вариационный вывод по сравнению с MCMC: когда выбрать один из других?

Я думаю, что я получил общее представление о VI и MCMC, включая различные разновидности MCMC, такие как выборка Гиббса, Metropolis Hastings и т. Д. Эта статья представляет собой прекрасное изложение обоих методов. У меня есть следующие вопросы: Если я хочу сделать байесовский вывод, почему я выбрал...

26
Связь между вариационным байесовским и ЭМ

Я где-то читал, что вариационный метод Байеса является обобщением алгоритма EM. Действительно, итерационные части алгоритмов очень похожи. Чтобы проверить, является ли алгоритм EM специальной версией Вариационного Байеса, я попробовал следующее: YYY - данные, - коллекция скрытых переменных, а -...

26
Как оценить потери KLD и потери реконструкции в вариационном авто-кодировщике

почти во всех примерах кода, которые я видел в VAE, функции потерь определяются следующим образом (это код с тензорным потоком, но я видел похожее для theano, torch и т. д. Это также для коннета, но это также не слишком актуально) , только влияет на оси, суммы принимаются): # latent space loss. KL...

24
Что такое вариационные автоэнкодеры и для каких задач обучения они используются?

Согласно этому и этому ответу, автоэнкодеры кажутся техникой, которая использует нейронные сети для уменьшения размеров. Я хотел бы дополнительно знать, что такое вариационный автоэнкодер (его основные отличия / преимущества по сравнению с «традиционными» автоэнкодерами), а также каковы основные...

19
Когда я должен использовать вариационный авто-кодер, а не авто-кодер?

Я понимаю основную структуру вариационного автоэнкодера и нормального (детерминированного) автоэнкодера и математическую схему, стоящую за ними, но когда и почему я предпочел бы один тип автоэнкодера другому? Все, о чем я могу думать, - это предварительное распределение скрытых переменных...

15
Какова «мощность» модели машинного обучения?

Я изучаю этот урок по вариационным автоэнкодерам Карла Доерша . На второй странице говорится: Одним из наиболее популярных таких фреймворков является Variational Autoencoder [1, 3], предмет данного руководства. Предположения этой модели являются слабыми, и обучение происходит быстро с помощью...

12
Что значит численное интегрирование слишком дорого?

Я читаю о байесовском умозаключении и натолкнулся на фразу «численная интеграция предельной вероятности слишком дорога» У меня нет опыта в математике, и мне было интересно, что именно здесь означает дорогой ? Это просто с точки зрения вычислительной мощности или есть что-то большее....

12
Вариационный вывод, дивергенция KL требует истинного

По моему (очень скромному) пониманию вариационного вывода, каждый пытается приблизить неизвестное распределение , найдя распределение q, которое оптимизирует следующее:pppqqq KL(p||q)=∑xp(x)logp(x)q(x)KL(p||q)=∑xp(x)logp(x)q(x)KL (p||q) = \sum\limits_{x} p(x)log \frac {p(x)}{q(x)} Всякий раз, когда...

10
Вариационный Байес в сочетании с Монте-Карло

Я читаю вариационный байесовский алгоритм, и, насколько я понимаю, все сводится к мысли, что вы приближаете (где z - скрытые переменные вашей модели и x наблюдаемые данные) с функцией q ( z ) , делая предположение, что q факторизуется как q i ( z i ), где z i является подмножеством скрытых...

10
К.Л. Потеря с единицей Гаусса

Я внедрял VAE и заметил в Интернете две разные реализации упрощенной однофакторной гауссовой дивергенции KL. Исходная дивергенция, здесь, выглядит следующим образом: Если мы предположим, что наша единица является т.е. и \ sigma_2 = 1 , это упрощается до KL_ {loss} = - \ log (\ sigma_1) + \ frac {\...

10
В чем разница между VAE и стохастическим обратным распространением для моделей с глубокой генерацией?

В чем разница между авто-кодированием вариационного байесовского алгоритма и стохастическим обратным распространением для моделей с глубокой генерацией ? Приводит ли вывод в обоих методах к тем же результатам? Я не знаю каких-либо явных сравнений между этими двумя методами, несмотря на то, что обе...

9
Применение стохастического вариационного вывода к байесовской смеси Гаусса

Я пытаюсь реализовать модель гауссовой смеси со стохастическим вариационным выводом, следуя этой статье . Это программа гауссовой смеси. Согласно статье, полный алгоритм стохастического вариационного вывода: И я все еще очень запутался в методе масштабирования до GMM. Во-первых, я думал, что...

9
Оценка неопределенности в задачах многомерного вывода без выборки?

Я работаю над проблемой многомерного вывода (около 2000 параметров модели), для которой мы можем надежно выполнить оценку MAP, найдя глобальный максимум логарифмического аппроксимации, используя комбинацию градиентной оптимизации и генетического алгоритма. Я очень хотел бы иметь возможность сделать...