Вопросы с тегом «bayesian»

37
Вариационный вывод по сравнению с MCMC: когда выбрать один из других?

Я думаю, что я получил общее представление о VI и MCMC, включая различные разновидности MCMC, такие как выборка Гиббса, Metropolis Hastings и т. Д. Эта статья представляет собой прекрасное изложение обоих методов. У меня есть следующие вопросы: Если я хочу сделать байесовский вывод, почему я выбрал...

36
Является ли p-значение бесполезным и опасным для использования?

Эта статья « Шансы, постоянно обновляемая» из NY Times привлекла мое внимание. Короче говоря, говорится, что [Байесовская статистика] оказывается особенно полезной при решении сложных проблем, в том числе поисков, подобных той, которую береговая охрана использовала в 2013 году, чтобы найти...

36
Почему распределение Дирихле является приоритетным для многочленного распределения?

В алгоритме модели темы LDA я видел это предположение. Но я не знаю, почему выбрал дистрибутив Дирихле? Я не знаю, можем ли мы использовать равномерное распределение по многочлену в...

35
Думайте как байесовский, проверяйте как частый человек: что это значит?

Я смотрю на слайды лекций по курсу науки о данных, которые можно найти здесь: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf Я, к сожалению, не вижу видео для этой лекции, и в какой-то момент на слайде у докладчика есть следующий текст: Некоторые ключевые принципы Думай как...

33
Что такое апостериорные прогностические проверки и что делает их полезными?

Я понимаю, что такое апостериорное предиктивное распределение , и я читал о апостериорных прогностических проверках , хотя мне пока не ясно, что он делает. Что такое задняя предиктивная проверка? Почему некоторые авторы говорят, что выполнение апостериорных прогностических проверок "использует...

32
Должен ли я учить байесовской или частой статистике в первую очередь?

Я помогаю своим мальчикам, которые в настоящее время учатся в старших классах, разбираться в статистике, и я собираюсь начать с нескольких простых примеров, не забывая о проблесках теории. Моя цель состояла бы в том, чтобы дать им наиболее интуитивный, но в то же время инструментальный подход к...

32
Какой будет надежная байесовская модель для оценки масштаба примерно нормального распределения?

Существует ряд надежных оценок масштаба . Ярким примером является медианой абсолютное отклонение , которое относится к стандартному отклонению , как σ=MAD⋅1.4826σ=MAD⋅1.4826\sigma = \mathrm{MAD}\cdot1.4826 . В байесовской структуре существует ряд способов надежной оценки местоположения примерно...

31
В чем разница между «глубоким обучением» и многоуровневым / иерархическим моделированием?

Является ли «глубокое обучение» просто еще одним термином для многоуровневого / иерархического моделирования? Я гораздо больше знаком с последним, чем с первым, но, насколько я могу судить, основное отличие заключается не в их определении, а в том, как они используются и оцениваются в пределах...

31
Что доверительные интервалы говорят о точности (если что-нибудь)?

Морей и др. (2015) утверждают, что доверительные интервалы вводят в заблуждение, и существует много предубеждений, связанных с их пониманием. Среди прочего, они описывают ошибку точности следующим образом: Ошибка точности Ширина доверительного интервала указывает на точность наших знаний о...

31
Основанное на энтропии опровержение байесовской обратной стрелки времени Шализи?

В этой статье талантливый исследователь Косма Шализи утверждает, что для полного принятия субъективного байесовского взгляда необходимо также принять нефизический результат, согласно которому стрелка времени (заданная потоком энтропии) действительно должна идти назад . В основном это попытка...

31
Если вероятный интервал имеет ровный априор, равен ли доверительный интервал 95% доверительному интервалу 95%?

Я очень плохо знаком с байесовской статистикой, и это может быть глупым вопросом. тем не менее: Рассмотрим вероятный интервал с априором, который определяет равномерное распределение. Например, от 0 до 1, где от 0 до 1 представляет полный диапазон возможных значений эффекта. В этом случае будет ли...

30
Почему мы должны использовать t ошибок вместо обычных ошибок?

В этом посте Эндрю Гельмана есть следующий отрывок: Байесовские модели 50-летней давности кажутся безнадежно простыми (за исключением, конечно, простых задач), и я ожидаю, что сегодняшние байесовские модели будут казаться безнадежно простыми, спустя 50 лет. (Просто для простого примера: мы,...

29
Пакеты R для выполнения тематического моделирования / LDA: просто `topicmodels` и` lda` [закрыто]

Закрыто. Этот вопрос не по теме . В настоящее время не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто в прошлом году . Мне кажется, что только два пакета R способны выполнять скрытое выделение Дирихле : Один из них lda,...

29
R: Случайный лес, выбрасывающий NaN / Inf в ошибке «вызова сторонней функции», несмотря на отсутствие NaN в наборе данных [закрыто]

Закрыто. Этот вопрос не по теме . В настоящее время не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 2 года назад . Я использую каретку, чтобы запустить перекрестный проверенный случайный лес по набору данных. Переменная...

29
Как работать с иерархическими / вложенными данными в машинном обучении

Я объясню мою проблему на примере. Предположим, вы хотите предсказать доход человека с учетом некоторых атрибутов: {Возраст, Пол, Страна, Регион, Город}. У вас есть тренировочный набор данных, как так train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4,...

29
Какая информация является информацией Фишера?

Предположим, у нас есть случайная величина . Если был истинным параметром, функция правдоподобия должна быть максимизирована, а производная равна нулю. Это основной принцип оценки максимального правдоподобия.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Насколько я понимаю, информация о Фишере...

29
Разница между наивным байесовским и многочленным наивным байесовским

Я имел дело с наивным байесовским классификатором раньше. В последнее время я читаю о многокомном наивном байесовском . Также Задняя Вероятность = (Приоритет * Вероятность) / (Доказательства) . Единственное главное отличие (при программировании этих классификаторов), которое я обнаружил между...

28
Вычисление повторяемости эффектов по модели Лмера

Я только что наткнулся на эту статью , в которой описывается, как вычислить повторяемость (или надежность, или внутриклассовую корреляцию) измерения с помощью моделирования смешанных эффектов. Код R будет: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc =...