Что означает «зависимый» и «независимый» тесты в литературе по множественным сравнениям?

18

В литературе как по частоте появления ошибок (FWER), так и по частоте ложных обнаружений (FDR) конкретные методы контроля FWER или FDR считаются подходящими для зависимых или независимых тестов. Например, в статье 1979 года «Простая последовательная объективная процедура множественных испытаний» Холм писал, чтобы противопоставить свой метод повышения Шидака и метод контроля Бонферрони:

Та же самая вычислительная простота получается, когда статистика теста независима .

В «Контроле уровня ложных открытий» Бенджамини и Хохберга (1995) авторы пишут:

Теорема 1. Для независимой статистики теста и для любой конфигурации ложных нулевых гипотез вышеупомянутая процедура управляет FDR при .Q*

Позже, в 2001 году, Бенджамини и Екутиели пишут:

1.3. Проблема . При попытке использовать подход FDR на практике статистические данные о зависимых тестах встречаются чаще, чем независимые , примером чего является приведенный выше пример с несколькими конечными точками.

Какие конкретные значения зависимого и независимого используют эти авторы? Я был бы рад получить формальные определения того, что делает тесты зависимыми или независимыми друг от друга, если они сопровождают объяснение простым языком.

Я могу придумать несколько разных возможных значений, но я не совсем понимаю, какими они могут быть:

  • «Зависимый» означает многовариантные тесты (т. Е. Множество зависимых переменных с одинаковыми или похожими предикторами); независимый означает одномерные тесты (т.е. много независимых переменных, одна зависимая переменная).

  • «Зависимый» означает тесты, основанные на парных / совпавших предметах (например, парный t- тест, повторные измерения ANOVA и т. Д.); «Независимый» означает непарные / независимые образцы исследования образцов.

  • «Зависимый» означает, что вероятность отклонения теста коррелирует с вероятностью отклонения другого теста, а «положительная зависимость» означает, что эта корреляция является положительной; «независимый» означает, что вероятности отклонения не связаны.

Ссылки
Benjamini, Y. и Hochberg, Y. (1995). Контроль частоты ложных открытий: практичный и эффективный подход к многократному тестированию . Журнал Королевского статистического общества. Серия B (Методологическая) , 57 (1): 289–300.

Benjamini, Y. и Yekutieli, D. (2001). Контроль уровня ложных обнаружений при множественном тестировании в зависимости . Летопись статистики , 29 (4): 1165–1188.

Holm S. (1979). Простая последовательно объективная процедура множественных испытаний . Скандинавский журнал статистики , 6 (65-70): 1979.

Alexis
источник
1
Тестовая статистика является случайной величиной. «Независимый» в этом контексте имеет то же значение, что и для любого набора случайных величин.
whuber
Спасибо @whuber, есть ли шанс, что вы хотели бы усилить это в ответ? :)
Алексис

Ответы:

13

1/201/201/2020 разные тесты.

20

201/2020(1-0,05)200,361-0,36знак равно0,64

2020

(ANOVA решает эту проблему посредством своего общего F-теста. Это своего рода сравнение, «чтобы управлять ими всеми»: мы не будем доверять групповому сравнению, если сначала этот F-тест не будет значительным.)

(п1,п2,...,пN)NNиз них в одном решении. В противном случае лучшее, что мы обычно можем сделать, это полагаться на приблизительные оценки (например, на основе поправки Бонферрони).

Совместные распределения независимых случайных величин легко вычислить. Поэтому в литературе проводится различие между этой ситуацией и случаем отсутствия независимости.

Соответственно, правильное значение слова «независимый» в цитатах в обычном статистическом смысле независимых случайных величин.


N(Икс1,...,Иксм)μμзнак равно0п1μзнак равно1п2(п1,п2)

Whuber
источник
+1 Спасибо, Вубер! Для примера ANOVA, будет ли случай, когда любое парное сравнение после ANOVA, где проверяются все возможные пары, будет «зависимым», или только случай, когда одна группа сравнивается с выбором других? (Я думаю, что первый, но хочу быть уверен).
Алексис
2
В ANOVA дисперсия остатков оценивается по всем данным. Таким образом, любые два сравнения будут (слегка) зависеть, хотя бы по этой причине, даже если сравнения не имеют общих групп. Когда сравнения имеют общие группы (такие как «A» против «C» и «B» против «C»), зависимость становится более очевидной и выраженной.
whuber