Вопросы с тегом «theory»

17
При каких условиях совпадают байесовские и частые точечные оценки?

С фиксированным априором оценки ML (частота - максимальная вероятность) и MAP (байесовская апостериорная) совпадают. В целом, однако, я говорю о точечных оценках, полученных как оптимизаторы некоторой функции потерь. Т.е. (Bayesian)  х...

16
Как байесовская статистика справляется с отсутствием приоров?

Этот вопрос был вдохновлен двумя недавними взаимодействиями, которые у меня были: одно здесь, в резюме , другое на economics.se. Там, я отправил ответ на известный «Конверт парадокса» (заметьте, не как на «правильный ответ» , но в качестве ответа , вытекающих из конкретных предположений о структуре...

16
Какие теории причинности я должен знать?

Какие теоретические подходы к причинности я должен знать как прикладной статистик / эконометрик? Я знаю (очень немного) Причинно-следственная модель Неймана – Рубина (и Рой , Гавелмо и т. Д.) Работа Перла о причинности Причинность Грейнджера (хотя и менее ориентированная на лечение) Какие концепции...

16
Какие есть альтернативы VC-измерению для измерения сложности нейронных сетей?

Я сталкивался с некоторыми основными способами измерения сложности нейронных сетей: Наивный и неформальный: подсчитайте количество нейронов, скрытых нейронов, слоев или скрытых слоев VC-измерение (Эдуардо Д. Сонтаг [1998] "VC-измерение нейронных сетей" [ pdf ].) Конечно-гранулированная и...

16
Книги по теории вероятностей для самостоятельной работы

Есть ли хорошие книги, в которых объясняются такие важные понятия теории вероятностей, как функции распределения вероятностей и кумулятивные функции распределения? Пожалуйста, избегайте ссылок на такие книги, как «Математическая статистика и анализ данных» Джона Райса, которые начинаются с простых...

15
Качественно что такое Cross Entropy

Этот вопрос дает количественное определение кросс-энтропии с точки зрения ее формулы. Я ищу более условное определение, википедия говорит: В теории информации кросс-энтропия между двумя распределениями вероятностей измеряет среднее число битов, необходимое для идентификации события из набора...

15
Типичная концепция набора

Я думал, что концепция типичного набора довольно интуитивна: последовательность длины будет принадлежать типичному набору A ( n ) ϵ, если вероятность выхода последовательности будет высокой. Таким образом, любая последовательность, которая была бы вероятна, была бы в A ( n ) ϵ . (Я избегаю...

15
Какова интуиция за сменными образцами при нулевой гипотезе?

Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования...

15
Как интерпретировать дифференциальную энтропию?

Недавно я прочитал эту статью об энтропии дискретного распределения вероятностей. Он описывает хороший способ восприятия энтропии как ожидаемых числовых битов (по крайней мере, при использовании в определении энтропии), необходимых для кодирования сообщения, когда ваша кодировка оптимальна,...

15
Расчет АПК «вручную» в R

Я попытался вычислить AIC линейной регрессии в R, но без использования AICфункции, например: lm_mtcars <- lm(mpg ~ drat, mtcars) nrow(mtcars)*(log((sum(lm_mtcars$residuals^2)/nrow(mtcars))))+(length(lm_mtcars$coefficients)*2) [1] 97.98786 Тем не менее, AICдает другое значение: AIC(lm_mtcars) [1]...

15
Применим ли принцип безразличия к парадоксу Бореля-Колмогорова?

Рассмотрим решение Джейнса к парадоксу Бертрана с использованием принципа безразличия . Почему подобный аргумент не применим к парадоксу Бореля-Колмогорова ? Есть ли что-то не так с утверждением, что, поскольку проблема не определяет ориентацию сферы, вращение сферы не должно влиять на итоговое...

15
Определение и происхождение «перекрестной энтропии»

Не ссылаясь на источники, Википедия определяет кросс-энтропию дискретных распределений и Q какппPQQQ ЧАС×( P; Q )= - ∑Икср ( х )журналQ( Х ) .ЧАС×(п;Q)знак равно-ΣИксп(Икс)журнал⁡Q(Икс),\begin{align} \mathrm{H}^{\times}(P; Q) &= -\sum_x p(x)\, \log q(x). \end{align} Кто первым начал использовать...

14
ГАМ против проигрыша против сплайнов

Контекст : Я хочу , чтобы нарисовать линию в диаграмме рассеяния , что не появляется параметрическими, поэтому я использую geom_smooth()в ggplotв R. Он автоматически возвращает geom_smooth: method="auto" and size of largest group is >=1000, so using gam with formula: y ~ s(x, bs = "cs"). Use...

14
Чеканка монет, процессы принятия решений и ценность информации

Представьте себе следующую схему: у вас есть 2 монеты, монета A, которая гарантированно будет честной, и монета B, которая может быть или не быть честной. Вас просят сделать 100 монетных бросков, и ваша цель - максимизировать количество голов . Ваша предварительная информация о монете B состоит в...

14
Всегда ли дифференциальная энтропия меньше бесконечности?

Для произвольной непрерывной случайной величины, скажем, XXX , всегда ли ее дифференциальная энтропия меньше ∞∞\infty ? (Это нормально, если это −∞−∞-\infty .) Если нет, каково необходимое и достаточное условие, чтобы оно было меньше, чем...

14
Ссылки, которые оправдывают использование гауссовых смесей

Модели гауссовых смесей (GMM) привлекательны, потому что с ними просто работать как в аналитическом, так и на практическом плане, и они способны моделировать некоторые экзотические распределения без особых сложностей. Есть несколько аналитических свойств, которые мы должны ожидать, которые в целом...

13
Использование взаимной информации для оценки корреляции между непрерывной переменной и категориальной переменной

Что касается названия, идея состоит в том, чтобы использовать взаимную информацию, здесь и после MI, для оценки «корреляции» (определяемой как «насколько я знаю об A, когда я знаю B») между непрерывной переменной и категориальной переменной. Я расскажу вам свои мысли по этому вопросу через минуту,...

13
Дифференциальная энтропия

Дифференциальная энтропия гауссовых RV равна . Это зависит от , который является стандартным отклонением.σlog2(σ2πe−−−√)log2⁡(σ2πe)\log_2(\sigma \sqrt{2\pi e})σσ\sigma Если мы нормализуем случайную переменную так, чтобы она имела единичную дисперсию, ее дифференциальная энтропия падает. Для меня...

13
Результаты оценок Монте-Карло, полученные с помощью выборки по важности

В течение прошлого года я довольно тесно работал над выборкой важных данных, и у меня есть несколько открытых вопросов, с которыми я надеялся получить некоторую помощь. Мой практический опыт работы со схемами выборки по важности заключался в том, что они могут иногда давать фантастические оценки с...

13
Докажите, что максимальное распределение энтропии с фиксированной ковариационной матрицей является гауссовым

Я пытаюсь обдумать следующее доказательство того, что гауссиан обладает максимальной энтропией. Как помеченный шаг имеет смысл? Определенная ковариация только фиксирует второй момент. Что происходит с третьим, четвертым, пятым моментами и т. Д.?...