Использование lm для 2-пробы

12

Некоторое время я использовал линейные модели для проведения тестов пропорции 2 образцов, но понял, что это может быть не совсем правильно. Похоже, что использование обобщенной линейной модели с биномиальной связью семейство + тождественность дает в точности результаты пула для 2-выборочной пропорции. Однако использование линейной модели (или glm с семейством гауссов) дает немного другой результат. Я полагаю, что это может быть связано с тем, как R решает glm для биномиальных и гауссовых семейств, но может ли быть другая причина?

## prop.test gives pooled 2-sample proportion result
## glm w/ binomial family gives unpooled 2-sample proportion result
## lm and glm w/ gaussian family give unknown result

library(dplyr)
library(broom)
set.seed(12345)

## set up dataframe -------------------------
n_A <- 5000
n_B <- 5000

outcome <- rbinom(
  n = n_A + n_B,
  size = 1,
  prob = 0.5
)
treatment <- c(
  rep("A", n_A),
  rep("B", n_B)
)

df <- tbl_df(data.frame(outcome = outcome, treatment = treatment))


## by hand, 2-sample prop tests ---------------------------------------------
p_A <- sum(df$outcome[df$treatment == "A"])/n_A
p_B <- sum(df$outcome[df$treatment == "B"])/n_B

p_pooled <- sum(df$outcome)/(n_A + n_B)
z_pooled <- (p_B - p_A) / sqrt( p_pooled * (1 - p_pooled) * (1/n_A + 1/n_B) )
pvalue_pooled <- 2*(1-pnorm(abs(z_pooled)))

z_unpooled <- (p_B - p_A) / sqrt( (p_A * (1 - p_A))/n_A + (p_B * (1 - p_B))/n_B )
pvalue_unpooled <- 2*(1-pnorm(abs(z_unpooled)))


## using prop.test --------------------------------------
res_prop_test <- tidy(prop.test(
  x = c(sum(df$outcome[df$treatment == "A"]), 
        sum(df$outcome[df$treatment == "B"])),
  n = c(n_A, n_B),
  correct = FALSE
))
res_prop_test # same as pvalue_pooled
all.equal(res_prop_test$p.value, pvalue_pooled)
# [1] TRUE


# using glm with identity link -----------------------------------
res_glm_binomial <- df %>%
  do(tidy(glm(outcome ~ treatment, family = binomial(link = "identity")))) %>%
  filter(term == "treatmentB")
res_glm_binomial # same as p_unpooled
all.equal(res_glm_binomial$p.value, pvalue_unpooled)
# [1] TRUE


## glm and lm gaussian --------------------------------

res_glm <- df %>%
  do(tidy(glm(outcome ~ treatment))) %>%
  filter(term == "treatmentB")
res_glm 
all.equal(res_glm$p.value, pvalue_unpooled)
all.equal(res_glm$p.value, pvalue_pooled)

res_lm <- df %>%
  do(tidy(lm(outcome ~ treatment))) %>% 
  filter(term == "treatmentB")
res_lm
all.equal(res_lm$p.value, pvalue_unpooled)
all.equal(res_lm$p.value, pvalue_pooled)

all.equal(res_lm$p.value, res_glm$p.value)
# [1] TRUE
Хилари Паркер
источник

Ответы:

8

Дело не в том, как они решают проблемы оптимизации, которые соответствуют подгонке моделей, а в том, что касается реальных проблем оптимизации, которые ставят модели.

В частности, в больших выборках вы можете эффективно рассматривать это как сравнение двух взвешенных задач наименьших квадратов.

В линейной модели ( lm) предполагается (когда она не взвешена), что дисперсия пропорций постоянна. Glm предполагает, что дисперсия пропорций происходит из биномиального предположения . Это взвешивает точки данных по-разному и поэтому приводит к несколько другим оценкам * и разнице в различиях.Var(p^)=Var(X/n)=p(1p)/n

* по крайней мере, в некоторых ситуациях, хотя не обязательно в прямом сравнении пропорций

Glen_b - Восстановить Монику
источник
0

С точки зрения расчета, сравните стандартную ошибку коэффициента обработки B для лм против биномиального глм. У вас есть формула для стандартной ошибки коэффициента treatmentB в биномиальном glm (знаменатель z_unpooled). Стандартная ошибка коэффициента обработки B в стандартной лм равна (SE_lm):

    test = lm(outcome ~ treatment, data = df)
    treat_B =  as.numeric(df$treatment == "B")
    SE_lm = sqrt( sum(test$residuals^2)/(n_A+n_B-2) / 
              sum((treat_B - mean(treat_B))^2))

См. Этот пост для деривации, единственное отличие состоит в том, что здесь обнаружена ошибка образца вместо (т.е. 2 из для потерянных степеней свободы). Без этого стандартные ошибки lm и binomial glm на самом деле, кажется, совпадают, когда .n A + n B - 2 n A = n Bσ2nA+nB2nA=nB

JAC
источник