Байесовская модель логита - интуитивное объяснение?

11

Я должен признаться, что раньше я не слышал об этом термине ни в одном из моих классов, старшекурсников или выпускников.

Что значит для логистической регрессии быть байесовским? Я ищу объяснение с переходом от обычной логистики к байесовской логистике, подобное следующему:

Это уравнение в модели линейной регрессии: .E(y)=β0+β1x1+...+βnxn

Это уравнение в модели логистической регрессии: . Это делается, когда у категоричен.ln(E(y)1E(y))=β0+β1x1+...+βnxn

Что мы сделали, так это изменили на .ln ( E ( y )E(y)ln(E(y)1E(y))

Итак, что же сделано с моделью логистической регрессии в байесовской логистической регрессии? Я предполагаю, что это не связано с уравнением.

Этот предварительный просмотр книги, кажется, определяет, но я действительно не понимаю. Что это все за вещи, вероятности? Что такое ? Может ли кто-нибудь объяснить эту часть книги или байесовскую модель логита по-другому?α

Примечание: я уже об этом спрашивал, но не очень хорошо отвечал.

BCLC
источник
1
Я не хочу помещать это в ответ, потому что я думаю, что @Tim покрыл большую часть этого. Единственное, чего не хватает в этом отличном ответе, так это в том, что в байесовской логистической регрессии и в байесовских обобщенных линейных моделях (GLM) в более общем смысле предшествующие распределения размещаются не только по коэффициентам, но и по дисперсиям и ковариациям этих коэффициентов. Это невероятно важно упомянуть, потому что одним из ключевых преимуществ байесовского подхода к GLM является большая возможность определения, а во многих случаях и подгонка сложных моделей для ковариации коэффициентов.
Дерзкое Равновесие
2
@BrashEquilibrium: вы упоминаете о возможном иерархическом расширении стандартного байесовского моделирования для логит-модели. В нашей книге мы используем, например , д-до на «с, до которой фиксированной ковариационной матрицы получается из ковариата . XβX
Сиань
1
Достаточно справедливо на данный приор.
Brash Equilibrium
1
Тем не менее, есть еще априор по ковариациям !!!!!! Если вы не обсуждаете это, вы не описываете, как логистическая регрессия работает полностью.
Brash Equilibrium

Ответы:

19

Логистическая регрессия может быть описана как линейная комбинация

η=β0+β1X1+...+βkXk

это передается через функцию ссылки :g

g(E(Y))=η

где функция ссылки является функцией логита

E(Y|X,β)=p=logit1(η)

где принимает только значения в а обратные логит-функции преобразуют линейную комбинацию в этот диапазон. На этом классическая логистическая регрессия заканчивается.{ 0 , 1 } ηY{0,1}η

Однако если вспомнить, что для переменных, которые принимают только значения в , то можно рассматривать как . В этом случае выходные данные функции логита можно рассматривать как условную вероятность «успеха», то есть . Распределение Бернулли - это распределение, которое описывает вероятность наблюдения двоичного результата с некоторым параметром , поэтому мы можем описать как{ 0 , 1 } E ( Y | X , β ) P ( Y = 1 | X , β ) P ( Y = 1 | X , β ) p YE(Y)=P(Y=1){0,1}E(Y|X,β)P(Y=1|X,β)P(Y=1|X,β)pY

yiBernoulli(p)

Таким образом, с помощью логистической регрессии мы ищем некоторые параметры которые вместе с независимыми переменными образуют линейную комбинацию . В классической регрессии (мы предполагаем, что функция связи является тождественной функцией), однако для модели которая принимает значения в нам нужно преобразовать так, чтобы соответствовать в диапазоне .X η E ( Y | X , β ) = η Y { 0 , 1 } η [ 0 , 1 ]βXηE(Y|X,β)=ηY{0,1}η[0,1]

Теперь, чтобы оценить логистическую регрессию байесовским способом, вы выбираете некоторые априоры для параметров как при линейной регрессии (см. Kruschke et al, 2012 ), а затем используете функцию logit для преобразования линейной комбинации , чтобы использовать ее вывод как Параметр распределения Бернулли, который описывает вашу переменнуюИтак, да, вы на самом деле используете уравнение и функцию логит-линка так же, как в частотном случае, а все остальное работает (например, выбирая априоры), как при оценке линейной регрессии по Байесовскому методу. η p YβiηpY

Простой подход к выбору приоров - это выбрать нормальные распределения (но вы также можете использовать другие распределения, например, или распределение Лапласа для более надежной модели) для с параметрами и , которые заданы или приняты из иерархических приоры . Теперь, имея определение модели, вы можете использовать программное обеспечение, такое как JAGS, для выполнения моделирования Марковской цепи Монте-Карло, чтобы вы могли оценить модель. Ниже я публикую код JAGS для простой логистической модели (см. Здесь дополнительные примеры).β i μ i σ 2 itβiμiσi2

model {
   # setting up priors
   a ~ dnorm(0, .0001)
   b ~ dnorm(0, .0001)

   for (i in 1:N) {
      # passing the linear combination through logit function
      logit(p[i]) <- a + b * x[i]

      # likelihood function
      y[i] ~ dbern(p[i])
   }
}

Как видите, код напрямую переводится в определение модели. Что делает программное обеспечение, так это то, что оно извлекает некоторые значения из нормальных априорных значений для, aа bзатем использует эти значения для оценки pи, наконец, использует функцию правдоподобия, чтобы оценить, насколько вероятны ваши данные с учетом этих параметров (это когда вы используете теорему Байеса, см. Здесь для более подробное описание).

Базовая модель логистической регрессии может быть расширена для моделирования зависимости между предикторами с использованием иерархической модели (включая гиперприоры ). В этом случае вы можете нарисовать из многомерного нормального распределения, которое позволяет нам включать информацию о ковариантности между независимыми переменными ΣβiΣ

(β0β1βk)MVN([μ0μ1μk],[σ02σ0,1σ0,kσ1,0σ12σ1,kσk,0σk,1σk2])

... но это в деталях, поэтому давайте остановимся прямо здесь.

Здесь «байесовская» часть выбирает приоры, использует теорему Байеса и определяет модель в вероятностных терминах. Смотрите здесь для определения «байесовской модели» и здесь для некоторой общей интуиции о байесовском подходе . Вы также можете заметить, что определение моделей довольно просто и гибко при таком подходе.


Kruschke, JK, Aguinis, H. & Joo, H. (2012). Пришло время: байесовские методы анализа данных в организационных науках. Организационные методы исследования, 15 (4), 722-752.

Гельман А., Джакулин А., Питтау Г.М. и Су Ю.С. (2008). Слабоинформативное предварительное распределение по умолчанию для логистических и других регрессионных моделей. Анналы прикладной статистики, 2 (4), 1360–1383.

Тим
источник
1
Вам нужны доказательства для дисперсий, а не только коэффициенты.
Дрянное равновесие
3
@BCLC no, для логистической регрессии logit используется в качестве функции связи , в то время как является линейной комбинацией , например, для линейной регрессии является тождественной функцией, поэтому , это это просто стандартная спецификация GLM . η η = β 0 + β 1 X 1 g E ( Y ) = ηgηη=β0+β1X1gE(Y)=η
Тим
1
@BCLC проверьте ссылки в моем ответе, они представляют введение в байесовскую статистику в целом. Это гораздо более широкая тема, чем та, которая упоминалась в вашем первоначальном вопросе, но вы можете найти хорошее введение в ссылках, которые я предоставил в своем ответе.
Тим
1
@ Я сделал там опечатку. Доказательства должны прочитать приоры. По сути, коэффициенты не являются единственными неизвестными параметрами. Полиномиальное распределение также имеет ковариационную матрицу дисперсии, и обычно мы не предполагаем, что она известна.
Дрянное равновесие
3
«Байесовская» часть здесь - это выбор приоров, использование теоремы Байеса и определение модели в вероятностных терминах ». Хорошей ссылкой здесь является Gelman et al. СЛАБО ИНФОРМАЦИОННАЯ DEFAULT априорное распределение по логистической И ДРУГИМ регрессионным моделям stat.columbia.edu/~gelman/research/published/priors11.pdf
Далтон Hance
6

Что это все за вещи, вероятности?

Вот что делает его байесовским. Генеративная модель для данных одинакова; Разница заключается в том, что байесовский анализ выбирает некоторое предварительное распределение для параметров, представляющих интерес, и вычисляет или аппроксимирует апостериорное распределение, на котором основан весь вывод. Байесовское правило относится к двум: апостериор пропорционален вероятности предшествующего времени.

Интуитивно понятно, что этот предварительный подход позволяет аналитику математически выразить предметную экспертизу или ранее сделанные выводы. Например, текст, на который вы ссылаетесь, отмечает, что предыдущий параметр для является многомерным нормальным. Возможно, предшествующие исследования предполагают определенный диапазон параметров, которые могут быть выражены определенными нормальными параметрами. (С гибкостью приходит ответственность: нужно уметь оправдывать их до скептической аудитории.) В более сложных моделях можно использовать экспертизу предметной области для настройки определенных скрытых параметров. Например, см. Пример печени, на который есть ссылка в этом ответе .β

Некоторые частые модели могут быть связаны с байесовским аналогом с определенным априором, хотя я не уверен, что соответствует в этом случае.

Шон Пасха
источник
SeanEaster, «предыдущий» слово используется для предполагаемого распределения? Например, мы предполагаем X или (если вы имеете в виду как в , вы имеете в виду вместо , , ..., ? Я не думаю, что - имеют дистрибутивы ...?) нормальны, но затем мы пытаемся встроить их в другой дистрибутив? Что именно вы подразумеваете под «приближенными»? У меня такое ощущение, что это не то же самое, что «подходит»& beta ; & beta ; 1 , & beta ; 2 , . , , , β n X 1 X 2 X n ββββ1,β2,...,βnX1X2Xnβ
BCLC
1
@BCLC Чтобы ответить на них, я начну с самого простого процесса байесовского вывода и определю термины на ходу: байесовцы рассматривают все интересующие параметры как случайные переменные и обновляют свои представления об этих параметрах в свете данных. Априорное распределение выражает свое убеждение о параметрах до анализа данных; * апостериорное распределение * - по правилу Байеса, нормализованному произведению априора и вероятности - обобщает неопределенное мнение о параметрах в свете априора и данных. Вычисление апостериума - это место, где происходит примерка.
Шон Пасха
1
@BCLC Итак, почему параметры имеют распределение. В других, как правило, простых байесовских моделях, апостериорные распределения могут иметь выражение в замкнутой форме. (В случайной переменной Бернулли с бета-значением, предшествующим , задняя часть является бета-распределением.) Но когда постериумы не могут быть выражены аналитически, мы аппроксимируем их, обычно используя методы MCMC. p pβpp
Шон Пасха
Хорошо, я думаю, что понимаю вас лучше после прочтения «Эссе к решению проблемы в доктрине шансов» . Спасибо SeanEster
BCLC
1
Ага. Во многих случаях это было бы невозможно рассчитать аналитически. P(B)
Шон Пасха