В чем разница между биномиальной регрессией и логистической регрессией?

20

Я всегда считал логистическую регрессию просто частным случаем биномиальной регрессии, где функция связи - это логистическая функция (вместо, скажем, пробитовой функции).

Однако после прочтения ответов на другой вопрос, который у меня возник, звучит так, как будто я запутался, и есть разница между логистической регрессией и биномиальной регрессией с логистической связью.

Какая разница?

raegtin
источник

Ответы:

13

Логистическая регрессия - это биномиальная регрессия с функцией «логистической» ссылки:

g(p)=log(p1p)=Xβ

Хотя я также думаю, что логистическая регрессия обычно применяется к биномиальным пропорциям, а не к биномиальным подсчетам.

probabilityislogic
источник
1
Что вы подразумеваете под логистической регрессией, которая обычно применяется к пропорциям, а не к подсчетам? Предположим, я пытаюсь предсказать, будут ли люди посещать вечеринку или нет, и что для определенной вечеринки я знаю, что 9 человек посетили, а 1 нет - вы имеете в виду, что логистическая регрессия принимает это как один пример обучения (т.е. у этой партии был коэффициент успеха 0,9), в то время как биномиальная регрессия со ссылкой взяла бы это за 10 обучающих примеров (9 успехов, 1 неудача)?
raegtin
@raehtin - в обоих случаях это будет выборка / учебный случай с ( n i , f i ) = ( 10 , 0,9 ) и ( n i , x i ) = ( 10 , 9 ) соответственно. Разница заключается в форме среднего и дисперсионных функций. Для биномиального значения среднее значение равно μ i = n i p i , каноническая ссылка теперь log ( μ i1(ni,fi)=(10,0.9)(ni,xi)=(10,9)μi=nipi(также называемый «естественным параметром»), и функция дисперсииV(μi)=μi(ni-μi)log(μiniμi) с параметром дисперсииϕi=1. Для логистики мы имеем среднее значениеμi=pi, указанную выше ссылку, дисперсионную функциюV(μi)=μi(1-μi)и дисперсию, равнуюϕi=1V(μi)=μi(niμi)niϕi=1μi=piV(μi)=μi(1μi) . ϕi=1ni
вероятностная
С помощью логистики отделяется от средних и дисперсионных функций, поэтому их легче учесть с помощью взвешиванияni
вероятностная
Ах, понял, думаю, вижу. Означает ли это, что они дают эквивалентные результаты (просто получены другим способом)?
raegtin
1
@raegtin - я так думаю. Вес GLM, , равны в обоих случаях, а функция ссылки производит то же самое значение логит. Так что, пока переменные X также одинаковы, тогда они должны давать одинаковые результаты. wi2=1ϕiV(μi)[g(μi)]2
вероятностная
4

var(Y)=Y^(1Y^)Y^=logit1(Xβ^)=1/(1exp(Xβ^))[0,1]

Adamo
источник