Вопросы с тегом «kullback-leibler»

11
Расстояние между двумя гауссовыми смесями для оценки кластерных решений

Я провожу быстрое моделирование для сравнения различных методов кластеризации, и в настоящее время попадаю в ловушку, пытаясь оценить кластерные решения. Мне известны различные метрики проверки (многие из них содержатся в cluster.stats () в R), но я предполагаю, что они лучше всего используются,...

11
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?

mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и...

11
Интерпретация производной Радона-Никодима между вероятностными мерами?

Я видел в некоторых моментах использование производной Радона-Никодима одной вероятностной меры по отношению к другой, особенно в дивергенции Кульбака-Лейблера, где она является производной вероятностной меры модели для некоторого произвольного параметра с относительно реального параметра θ 0...

10
Дивергенция Кульбака-Лейблера для двух образцов

Я попытался реализовать численную оценку дивергенции Кульбака-Лейблера для двух выборок. Для отладки реализации возьмем образцы из двух нормальных распределений N(0,1)N(0,1)\mathcal N (0,1) и N(1,2)N(1,2)\mathcal N (1,2) . Для простой оценки я сгенерировал две гистограммы и попытался численно...

10
Как рассчитать расхождение / расстояние Кульбака-Лейблера?

У меня есть три набора данных X, Y и Z. Каждый набор данных определяет частоту происходящего события. Например: Набор данных X: E1: 4, E2: 0, E3: 10, E4: 5, E5: 0, E6: 0 и т. Д. Набор данных Y: E1: 2, E2: 3, E3: 7, E4: 6, E5: 0, E6: 0 и т. Д. Набор данных Z: E1: 0, E2: 4, E3: 8, E4: 4, E5: 1, E6: 0...

10
Оцените расхождение Куллбека Лейблера (КЛ) с Монте-Карло

Я хочу оценить KL-расхождение между двумя непрерывными распределениями f и g. Однако я не могу записать плотность ни для f, ни для g. Я могу сделать выборку как из f, так и из g с помощью какого-либо метода (например, цепочки Маркова Монте Карло). Расхождение KL от f до g определяется следующим...

10
R линейная регрессия категориальной переменной «скрытое» значение

Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод,...

10
К.Л. Потеря с единицей Гаусса

Я внедрял VAE и заметил в Интернете две разные реализации упрощенной однофакторной гауссовой дивергенции KL. Исходная дивергенция, здесь, выглядит следующим образом: Если мы предположим, что наша единица является т.е. и \ sigma_2 = 1 , это упрощается до KL_ {loss} = - \ log (\ sigma_1) + \ frac {\...

10
Проверка гипотез и общее расстояние изменения против расхождения Кульбака-Лейблера

В своем исследовании я столкнулся со следующей общей проблемой: у меня есть два распределения и в одной и той же области и большое (но конечное) число выборок из этих распределений. Выборки независимо и идентично распределяются из одного из этих двух распределений (хотя распределения могут быть...

9
Индекс устойчивости населения - деление на ноль

Индекс стабильности населения количественно определяет изменение распределения переменной путем сравнения выборок данных за два периода времени. Это очень часто используется для измерения сдвигов в баллах. Он рассчитывается следующим образом: 1) Выборка из базового периода дискретизируется. Обычно...

9
Почему байесовский апостериор концентрируется вокруг минимизатора расхождения KL?

Рассмотрим Байеса задней . Асимптотически его максимум возникает при оценке MLE , которая просто максимизирует вероятность .θ∣Xθ∣X\theta\mid Xθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X) Все эти концепции - байесовские априоры, максимизирующие вероятность -...