Надежна ли рандомизация с небольшими выборками?

11

Джером Корнфилд написал:

Одним из лучших плодов фишерианской революции была идея рандомизации, и статистики, согласившиеся с несколькими другими моментами, по крайней мере согласились с этим. Но, несмотря на это согласие и несмотря на широкое использование процедур рандомизированного распределения в клинических и других формах экспериментов, его логический статус, то есть точная функция, которую он выполняет, все еще остается неясным.

Нива, Джером (1976). «Недавние методологические вклады в клинические испытания» . Американский журнал эпидемиологии 104 (4): 408–421.

На этом сайте и во многих литературных источниках я постоянно вижу уверенные утверждения о возможностях рандомизации. Сильная терминология, такая как «она устраняет проблему смешанных переменных», является обычной практикой. Смотрите здесь , например. Тем не менее, много раз эксперименты проводятся с небольшими образцами (3-10 образцов на группу) по практическим / этическим причинам. Это очень распространено в доклинических исследованиях с использованием животных и клеточных культур, и исследователи обычно сообщают значения p в поддержку своих выводов.

Это заставило меня задуматься, насколько хороша рандомизация при балансировке путаницы. Для этого графика я смоделировал ситуацию, сравнивая группы лечения и контроля с одним конфузом, который мог принимать два значения с вероятностью 50/50 (например, тип 1 / тип 2, мужчина / женщина). Он показывает распределение «% несбалансированного» (разница в # типа 1 между обработанной и контрольной выборками, разделенная на размер выборки) для исследований множества небольших размеров выборки. Красные линии и правые боковые оси показывают ecdf.

Вероятность различных степеней баланса при рандомизации для малых размеров выборки: введите описание изображения здесь

Из этого сюжета ясно две вещи (если я где-то не напутал).

1) Вероятность получения точно сбалансированных выборок уменьшается с увеличением размера выборки.

2) Вероятность получения очень несбалансированной выборки уменьшается с увеличением размера выборки.

3) В случае n = 3 для обеих групп существует 3% -ная вероятность получения полностью несбалансированного набора групп (все типы 1 в контроле, все типы 2 в лечении). N = 3 обычно для экспериментов по молекулярной биологии (например, измерение мРНК с помощью ПЦР или белков с вестерн-блоттингом)

Когда я рассмотрел случай n = 3, я обнаружил странное поведение значений p в этих условиях. Левая сторона показывает общее распределение значений p, вычисленных с использованием t-тестов в условиях различных средних для подгруппы типа 2. Среднее значение для типа 1 было 0, а sd = 1 для обеих групп. Правые панели показывают соответствующие ложноположительные показатели для номинальных «предельных значений» от 0,05 до 0001.

Распределение значений p для n = 3 с двумя подгруппами и различными средними значениями второй подгруппы при сравнении с помощью t-теста (10000 пробегов в Монте-Карло): введите описание изображения здесь

Вот результаты для n = 4 для обеих групп: введите описание изображения здесь

Для n = 5 для обеих групп: введите описание изображения здесь

Для n = 10 для обеих групп: введите описание изображения здесь

Как видно из приведенных выше диаграмм, существует взаимодействие между размером выборки и разницей между подгруппами, что приводит к различным распределениям p-значений при нулевой гипотезе, которые не являются однородными.

Итак, можем ли мы сделать вывод, что значения p не являются надежными для правильно рандомизированных и контролируемых экспериментов с небольшим размером выборки?

R код для первого сюжета

require(gtools)

#pdf("sim.pdf")
par(mfrow=c(4,2))
for(n in c(3,4,5,6,7,8,9,10)){
  #n<-3
  p<-permutations(2, n, repeats.allowed=T)

  #a<-p[-which(duplicated(rowSums(p))==T),]
  #b<-p[-which(duplicated(rowSums(p))==T),]

  a<-p
  b<-p

  cnts=matrix(nrow=nrow(a))
  for(i in 1:nrow(a)){
    cnts[i]<-length(which(a[i,]==1))
  }


  d=matrix(nrow=nrow(cnts)^2)
  c<-1
  for(j in 1:nrow(cnts)){
    for(i in 1:nrow(cnts)){
      d[c]<-cnts[j]-cnts[i]
      c<-c+1
    }
  }
  d<-100*abs(d)/n

  perc<-round(100*length(which(d<=50))/length(d),2)

  hist(d, freq=F, col="Grey", breaks=seq(0,100,by=1), xlab="% Unbalanced",
       ylim=c(0,.4), main=c(paste("n=",n))
  )
  axis(side=4, at=seq(0,.4,by=.4*.25),labels=seq(0,1,,by=.25), pos=101)
  segments(0,seq(0,.4,by=.1),100,seq(0,.4,by=.1))
  lines(seq(1,100,by=1),.4*cumsum(hist(d, plot=F, breaks=seq(0,100,by=1))$density),
        col="Red", lwd=2)

}

R код для участков 2-5

for(samp.size in c(6,8,10,20)){
  dev.new()
  par(mfrow=c(4,2))
  for(mean2 in c(2,3,10,100)){
    p.out=matrix(nrow=10000)

    for(i in 1:10000){

      d=NULL
      #samp.size<-20
      for(n in 1:samp.size){
        s<-rbinom(1,1,.5)
        if(s==1){
          d<-rbind(d,rnorm(1,0,1))
        }else{
          d<-rbind(d,rnorm(1,mean2,1))
        }
      }

      p<-t.test(d[1:(samp.size/2)],d[(1+ samp.size/2):samp.size], var.equal=T)$p.value

      p.out[i]<-p
    }


    hist(p.out, main=c(paste("Sample Size=",samp.size/2),
                       paste( "% <0.05 =", round(100*length(which(p.out<0.05))/length(p.out),2)),
                       paste("Mean2=",mean2)
    ), breaks=seq(0,1,by=.05), col="Grey", freq=F
    )

    out=NULL
    alpha<-.05
    while(alpha >.0001){

      out<-rbind(out,cbind(alpha,length(which(p.out<alpha))/length(p.out)))
      alpha<-alpha-.0001
    }

    par(mar=c(5.1,4.1,1.1,2.1))
    plot(out, ylim=c(0,max(.05,out[,2])),
         xlab="Nominal alpha", ylab="False Postive Rate"
    )
    par(mar=c(5.1,4.1,4.1,2.1))
  }

}
#dev.off()
колба
источник
Поначалу я нашел ваше описание условий и проблемы немного сложным для понимания. Тип I и тип II являются техническими терминами, которые отличаются от вашего использования подгруппы type1 и type2. Насколько я могу судить, вы применяете t-критерий к данным из дистрибутива с использованием различных средств. Это правильно?
Майкл Лью
Да, смесь двух нормальных распределений. «тип1» относится к N (0,1), тип2 - к N (среднее 2,1). Где Mean2 = (2,3,10 или 100). Извините, я могу изменить его на typeA, typeB, если вы думаете, что это поможет?
Настой

Ответы:

4

Вы правильно указали на ограничения рандомизации при работе с неизвестными смешанными переменными для очень маленьких выборок. Однако проблема заключается не в том, что значения P не являются надежными, а в том, что их значение варьируется в зависимости от размера выборки и в зависимости от предположений метода и фактических свойств популяций.

Я полагаю на ваши результаты, что P-значения работали достаточно хорошо, пока разница в средних значениях подгруппы не была настолько велика, что любой разумный экспериментатор узнал бы, что перед экспериментом возникла проблема.

Мысль о том, что эксперимент можно провести и проанализировать без ссылки на правильное понимание природы данных, ошибочна. Перед анализом небольшого набора данных вы должны знать достаточно о данных, чтобы иметь возможность уверенно защищать предположения, заложенные в анализе. Такие знания обычно приходят из предыдущих исследований, использующих ту же или подобную систему, исследований, которые могут быть официальными опубликованными работами или неформальными «предварительными» экспериментами.

Майкл Лью
источник
Я согласен со всем, что вы сказали, однако t-тесты часто проводятся «ритуально», как сказал бы Герд Гигеренцер. На практике люди, выполняющие эти тесты, не имеют времени / склонности понимать нюансы того, что они делают. По этой причине я думаю, что «ненадежное» прилагательное может быть подходящим. Я знаю исследователей, которые, когда вы спрашиваете о распределении (был ли один высокий или что вызвало эту большую полосу ошибок?), Никогда не смотрели на это.
Настой
1
Ну, то, что значения P действительно «означают», довольно сильно отличается от того, что предполагает большинство людей. Даже многие бумаги, которые критикуют P-значения как «несовместимые с доказательствами» и тому подобное, ошибаются. Вчера я загрузил на arXiv статью, в которой рассматриваются свойства P-значений и показано, как они соотносятся с типом доказательств, которые могут использовать экспериментаторы. Его название: «К P или не к P: о доказательной природе P-значений и их месте в научном заключении», а номер представления arXiv - 826269. Он должен быть доступен с понедельника.
Майкл Лью
Не могли бы вы взглянуть на этот вопрос, который не получил любви по какой-либо причине? , Я согласен, что значения p - это что-то, и ваша статья может помочь объяснить это, но как исследователь я должен пояснить, что ботинки на земле - это то, что они подвели нас. Либо из-за неправильного использования или врожденной неуместности, это неясно. Я задавал ряд вопросов здесь, пытаясь получить точку зрения статистиков на это.
Настой
2

В экологических исследованиях неслучайное присвоение обработок экспериментальным единицам (субъектам) является стандартной практикой, когда размеры выборки невелики и имеются доказательства наличия одной или нескольких смешанных переменных. Это неслучайное назначение «перемежает» субъектов по всему спектру возможных смешанных переменных, что и должно делать случайное назначение. Но при небольших размерах выборки рандомизация, скорее всего, будет плохо работать (как показано выше), и поэтому полагаться на нее может быть плохой идеей.

Поскольку рандомизация так сильно поддерживается в большинстве областей (и это справедливо), легко забыть, что конечная цель состоит в том, чтобы уменьшить смещение, а не придерживаться строгой рандомизации. Тем не менее, исследователь (и) обязан эффективно охарактеризовать набор смешанных переменных и выполнить неслучайное назначение защищаемым способом, который не учитывает экспериментальные результаты и использует всю доступную информацию и контекст.

Для краткого изложения см. Стр. 192-198 в Hurlbert, Stuart H. 1984. Псевдорепликация и дизайн полевых экспериментов. Экологические монографии 54 (2) с.187-211.

Даррен Джеймс
источник
Мне понравилось читать это, но я обеспокоен тем, что использование вами «предвзятости» в предпоследнем абзаце может быть неверно истолковано, поскольку этот термин имеет конкретное статистическое значение, которое сделает ваше утверждение неверным. Разве вы не пытаетесь сказать, что рандомизация предназначена для предотвращения смешения (форма «предвзятости» в разговорном смысле), а не для уменьшения предвзятости (как мера неточности оценки)?
whuber
Я имею в виду предвзятость в статистическом смысле. В статистике «смещение» - это разница между статистикой и оцениваемым параметром. Как вы упоминаете, смещение оценки - это разница между ожидаемым значением оценщика и истинным значением оцениваемого параметра. В своем посте под «предвзятостью» я имел в виду разницу между статистикой, рассчитанной на основе данных, и параметров, которые они оценивают, например, между средним по выборке (x бар) и истинным средним (mu).
Даррен Джеймс
Насколько мне известно, рандомизированная выборка не используется для уменьшения смещения, и при многих обстоятельствах нельзя утверждать, что она действительно уменьшает смещение.
whuber
Вы ошибаетесь. Основной целью рандомизации является моделирование эффекта независимости. Это достигается путем устранения предвзятости, возникающей в результате систематического назначения лечения субъектам. Эти смещения приводят к неточным оценкам - что наиболее важно, к оценкам смещенной дисперсии - и утрате контроля над ошибками типов I и II. Даже смешанные переменные (которые на самом деле равносильны отсутствию независимости) являются просто случаем пропущенного смещения переменной. Но вам не нужно верить мне на слово ... Если вы не убеждены в статье Хёрлберта, приведенной выше, вот некоторые другие ресурсы для консультации:
Даррен Джеймс
Cochran, WG и GM Cox. 1957. Экспериментальные образцы. Нью-Йорк: Уайли. Федерер, WT 1955. Экспериментальный дизайн. Нью-Йорк: Макмиллан. Хинкельманн, К., и Кемпторн, О. 1994. Дизайн и анализ экспериментов. Wiley: Нью-Йорк. Kuehl, RO 2000. Дизайн экспериментов: статистические принципы разработки и анализа исследований. Белмонт, Калифорния: Брукс / Коул.
Даррен Джеймс