Как сравнивается сила логистической регрессии и t-критерия?

18

Является ли сила логистической регрессии и критерий Стьюдента эквивалентной? Если это так, то они должны быть «эквивалентными плотности данных», под которыми я подразумеваю, что одно и то же количество базовых наблюдений дает одинаковую мощность при фиксированной альфа-коэффициенте 0,05. Рассмотрим два случая:

  1. [Параметрический t-критерий]: из биномиального наблюдения сделано 30 ничьих, и полученные значения усредняются. Это делается 30 раз для группы A (у которой биномиальный Pr равен 0,70) и 30 раз для группы B (у которого биномиальное Pr составляет 0,75). Это дает 30 средних на группу, которые представляют собой сводку 1800 тиражей из биномиального распределения. 58-й t-тест проводится для сравнения средств.
  2. [Логистическая регрессия]: логистическая регрессия выполняется с использованием фиктивного закодированного наклона, представляющего членство в группе, и каждого из 1800 тиражей.

Мой вопрос состоит из двух частей:

  1. При заданном альфа-значении 0,05 сила этих методологий будет одинаковой или разной? Почему? Как я могу это доказать?
  2. Чувствителен ли ответ на вопрос 1 к размерам выборки, включенным в t-критерий, к размеру выборки каждой группы в t-критерии, базовым биномиальным вероятностям или к каким-либо другим факторам? Если так, как я могу знать (без моделирования), что мощность действительно отличается и какие изменения приведут к изменениям в силе? В качестве альтернативы предоставьте отработанный R-код, который решает проблему с помощью симуляции.
russellpierce
источник

Ответы:

19

Если я правильно вычислил, логистическая регрессия асимптотически имеет ту же силу, что и t-критерий. Чтобы увидеть это, запишите его логарифмическую вероятность и вычислите ожидание его гессиана в его глобальном максимуме (его отрицательные оценки дисперсионно-ковариационной матрицы решения ML). Не беспокойтесь об обычной логистической параметризации: проще просто параметризовать ее с двумя этими вероятностями. Детали будут зависеть от того, как именно вы проверяете значимость коэффициента логистической регрессии (есть несколько методов).

То, что эти тесты имеют схожие степени, не должно вызывать удивления, поскольку теория хи-квадрат для оценок ML основана на нормальном приближении к логарифмической вероятности, а t-тест основан на нормальном приближении к распределениям пропорций. Суть в том, что оба метода дают одинаковые оценки двух пропорций, и обе оценки имеют одинаковые стандартные ошибки.


Фактический анализ может быть более убедительным. Давайте примем некоторую общую терминологию для значений в данной группе (A или B):

  • является вероятностью 1.p
  • - размер каждого набора розыгрышей.n
  • - количество сетов розыгрышей.m
  • - количество данных.N=mn
  • (равно 0 или 1 ) - это значение j- го результата в i- м наборе розыгрышей.kij01jthith
  • - общее количество единиц в i- м тираже.kiith
  • общее количество единиц.k

Логистическая регрессия, по существу, является оценкой ML по . Его логарифм даетсяp

log(L)=klog(p)+(Nk)log(1p).

Его производные по параметру имеют видp

log(L)p=kpNk1p and

2log(L)p2=kp2+Nk(1p)2.

Установка первого к нулю дает оценку М.Л. р = K / N и закупорки , что в обратную втором выражении дает дисперсию р ( 1 - р ) / N , который является квадратом стандартной ошибки.p^=k/Np^(1p^)/N

Т статистика будет получена из оценок , основанных на данных , сгруппированных наборами дро; а именно, как разность средних (одна из группы A, а другая из группы B), деленная на стандартную ошибку той разницы, которая получается из стандартных отклонений средних. Давайте тогда посмотрим на среднее и стандартное отклонение для данной группы. Средние равно , который является идентичным ML оценивани р . Рассматриваемое стандартное отклонение - это стандартное отклонение средств вытяжки; то есть это стандартное отклонение набора k i / n . Вот суть вопроса, поэтому давайте рассмотрим некоторые возможности.k/Np^ki/n

  1. Предположим , что данные не сгруппированы в дро вообще: то есть, и т = Н . К я являюсь ничьими средствами. Их выборки дисперсия равна N / ( N - 1 ) раз р ( 1 - р ) . Из этого следует, что стандартная ошибка идентична стандартной ошибке ML, за исключением коэффициента n=1m=NkiN/(N1)p^(1p^) , что по существу равно1,когдаN=1800. Поэтому, помимо этой крошечной разницы, любые тесты, основанные на логистической регрессии, будут такими же, как и t-тест, и мы получим практически одинаковую мощность.N/(N1)1N=1800

  2. Когда данные группируются, (истинная) дисперсия равна p ( 1 - p ) / n, потому что статистика k i представляет сумму n переменных Бернулли ( p ), каждая с дисперсией p ( 1 - p) ) . Следовательно, ожидаемая стандартная ошибка среднего значения m этих значений равна квадратному корню из p ( 1 - p ) / n / m =ki/np(1p)/nkinpp(1p)m , как и прежде.p(1p)/n/m=p(1p)/N

Число 2 указывает, что мощность теста не должна заметно изменяться в зависимости от того, как распределены результаты (то есть, как и n варьируются в зависимости от m n = N ), за исключением, возможно, довольно небольшого эффекта от корректировки в выборке дисперсия (если вы не были настолько глупы, чтобы использовать очень мало наборов розыгрышей в каждой группе).mnmn=N

Ограниченное моделирование для сравнения с р = 0,74 (с 10 000 итераций в каждом), включая m = 900 , n = 1 (по существу, логистическая регрессия); m = n = 30 ; и m = 2 , n = 450 (максимизация корректировки дисперсии выборки) подтверждают это: мощность (при α = 0,05p=0.70p=0.74m=900,n=1m=n=30m=2,n=450α=0.05(односторонний) в первых двух случаях равен 0,59, тогда как в третьем, где поправочный коэффициент вносит существенные изменения (теперь вместо 1798 или 58 имеется только две степени свободы), он падает до 0,36. Другой тест, сравнивающий с p = 0,52, дает степени 0,22, 0,21 и 0,15 соответственно: опять же, мы наблюдаем лишь небольшое снижение от отсутствия группировки в ничьи (= логистическая регрессия) до группировки в 30 групп и существенное снижение всего две группы.p=0.50p=0.52

Морали этого анализа:

  1. Вы не теряете много, когда делите свои значения данных на большое количество m относительно небольших групп "ничьих".Nm
  2. mn
  3. N
Whuber
источник
1
@suncoolsu Жаль, что мы не можем проголосовать за обновление ...
chl
2
@chl .. Я согласен, я хотел бы дать (+2) :-), на самом деле я никогда не думал так глубоко об этом вопросе до этого обновления.
Suncoolsu
Как обычно, тур де Билл Хубер. Я смотрю на озадаченный вопрос о том, как сравнить мощность для t-теста с логистической регрессией. Но похоже, что общность ставит оба метода в задачу проверки пропорций ..
Майкл Р. Черник
8

Вот код в R, который иллюстрирует симуляцию ответа whuber . Отзывы об улучшении моего кода R приветствуются.

N <- 900            # Total number data points
m <- 30;            # Size of draw per set
n <- 30;            # No of sets

p_null <- 0.70;     # Null hypothesis
p_alternate <- 0.74 # Alternate hypothesis
tot_iter <- 10000;

set.seed(1);        # Initialize random seed
null_rejected <- 0; # Set counter to 0
for (iter in 1:tot_iter)
{
    draws1 <- matrix(0,m,n);
    draws2 <- matrix(0,m,n);
    means1 <- matrix(0,m);
    means2 <- matrix(0,m);

    for (obs in 1:m)
    {
        draws1[obs,] <- rbinom(n,1,p_null);
        draws2[obs,] <- rbinom(n,1,p_alternate);

        means1[obs,] <- mean(draws1[obs,]);
        means2[obs,] <- mean(draws2[obs,]);
    }
    if (t.test(means1,means2,alternative="l")$p.value <= 0.05)
    {
        null_rejected <- null_rejected + 1; 
    }
}
power <- null_rejected / tot_iter
Сообщество
источник
1
Спасибо за то, что поделился этим! (Мне нравится, что вы делаете все параметры переменными и чётко комментируете их.) Сегодня у меня нет голосов :-( поэтому мне придется подождать, чтобы проголосовать,
whuber
2
replicate()rbinom() k{*}apply()
@chl Спасибо. Я использую эти вопросы, чтобы узнать R! Таким образом, обратная связь, такая как ваша, является ценной.
@Skrikant LOL Я просто добавил: "Кстати, мне нравится, как ты учишь R!"
ЧЛ
Я не совсем понимаю; разве это не только дает силу t.test?
Russellpierce