Как процедуры FDR оценивают уровень ложного обнаружения без модели базовых ставок?

9

Может ли кто-нибудь объяснить, как процедуры FDR способны оценивать FDR без модели / предположения о базовой ставке истинных положительных результатов?

user4733
источник

Ответы:

5

Я думаю, что это действительно хороший вопрос; слишком много людей используют процедуру Бенджамини-Хохберга (сокращенно BH; возможно, самую популярную процедуру контроля FDR) в качестве черного ящика. Действительно, в статистике есть основополагающее предположение, и оно прекрасно скрыто в определении значений p!

Для хорошо определенного p-значения считается, что равномерно распределен ( ) при нулевой гипотезе. Иногда может даже случиться, что , т. Е. Что стохастически меньше равномерного, но это только делает процедуры более консервативными (и, следовательно, все еще действительными). Таким образом, вычисляя ваши p-значения, используя t-тест или любой другой тест по вашему выбору, вы предоставляете информацию о распределении в соответствии с нулевой гипотезой.PPPU[0,1]Pr[Pt]tP

Но обратите внимание, что я продолжал говорить о нулевой гипотезе; поэтому то, что вы упомянули о знании базового уровня ложных срабатываний, не требуется, вам нужно только знание базового показателя ложных срабатываний! Почему это?

Пусть обозначает число всех отклоненных (положительных) гипотез, а - ложных срабатываний, тогда:RV

FDR=E[Vmax(R,1)]E[V]E[R]

Таким образом, чтобы оценить FDR, вам нужен способ оценки , . Теперь мы рассмотрим правила принятия решений, которые отклоняют все p-значения . Чтобы пояснить это в обозначениях, я также напишу для соответствующих величин / случайных величин такой процедуры.E[R]E[V]tFDR(t),R(t),V(t)

Поскольку является всего лишь ожиданием общего количества отклонений, вы можете непредвзято оценить его по количеству отклонений, которое вы наблюдаете, поэтому То есть просто посчитав, сколько ваших p-значений .E[R(t)]E[R(t)]R(t)t

А как насчет ? Предположим, что из ваших общих гипотез являются нулевыми гипотезами, а затем по единообразию (или суб-однородности) p-значений под нулевым значением вы получите:E[V]m0m

E[V(t)]=i nullPr[Pit]m0t

Но мы все еще не знаем , но мы знаем, что , поэтому консервативная верхняя граница будет просто . Поэтому, поскольку нам просто нужна верхняя граница числа ложных срабатываний, достаточно знать их распределение! И это именно то, что делает процедура BH.m0m0mE[V(t)]mt

Таким образом, хотя комментарий Ааронга Зенга о том, что «процедура ЧД является способом управления FDR на заданном уровне q. Речь не идет об оценке FDR», не является ложным, он также сильно вводит в заблуждение! Процедура ВН фактически делает оценить ФДС для каждого заданного порогового . И тогда он выбирает самый большой порог, такой, что предполагаемый FDR ниже . Действительно, «скорректированное значение p» гипотезы по сути, является просто оценкой FDR на пороге (вплоть до изотонизации). Я думаю, что стандартный алгоритм BH немного скрывает этот факт, но легко показать эквивалентность этих двух подходов (также называемых «теоремой эквивалентности» в литературе по множественному тестированию).tαit=pi

Как последнее замечание, существуют методы, такие как процедура Стори, которые даже оценивают по данным; это может немного увеличить мощность. Также в принципе вы правы, можно также смоделировать распределение по альтернативе (ваш истинный положительный базовый показатель), чтобы получить более мощные процедуры; но до сих пор исследования множественного тестирования в основном были направлены на поддержание контроля над ошибкой I типа, а не на максимальное увеличение мощности. Одна трудность также может заключаться в том, что во многих случаях каждая из ваших истинных альтернатив будет иметь разное альтернативное распределение (например, разную мощность для разных гипотез), тогда как при нулевом значении все p-значения имеют одинаковое распределение. Это делает моделирование истинного положительного показателя еще более сложным.m0

воздуха
источник
3
+1 Предположительно «ЧД» относится к Бенджамини-Хохбергу . (Это всегда хорошая идея, чтобы объяснить аббревиатуры, чтобы люди не поняли неправильно.) Добро пожаловать на наш сайт!
whuber
1
Спасибо! Также да, вы правы, я отредактировал свой пост, чтобы отразить это.
эфир
4

Как предполагает @air, процедура Бенджамини-Хохберга (BH) гарантирует контроль FDR. Это не имеет целью оценить это. Таким образом, требуется простое предположение о слабой зависимости между статистикой теста. [1,2]

Методы, нацеленные на оценку FDR [например, 3,4,5], требуют некоторых допущений в отношении генеративного процесса для его оценки. Как правило, они предполагают, что статистика испытаний независима. Они также будут предполагать что-то о нулевом распределении тестовой статистики. Таким образом, отклонения от этого нулевого распределения вместе с предположением о независимости можно отнести к эффектам, и можно оценить FDR.

Обратите внимание, что эти идеи вновь появляются в литературе по обнаружению новизны под надзором. [6].

[1] Бенджамини, Y. и Й. Хохберг. «Контроль частоты ложных открытий: практический и эффективный подход к многократному тестированию». ЖУРНАЛЬНО-КОРОЛЕВСКОЕ СТАТИСТИЧЕСКОЕ ОБЩЕСТВО СЕРИИ B 57 (1995): 289–289.

[2] Бенджамини Ю. и Д. Екутиели. «Контроль частоты ложных открытий при многократном тестировании в зависимости». ЖИВОТНЫЕ СТАТИСТИКИ 29, нет. 4 (2001): 1165–88.

[3] Стори, JD «Прямой подход к ставкам ложных открытий». Журнал Королевского статистического общества Серия B 64, № 3 (2002): 479–98. DOI: 10.1111 / 1467-9868.00346.

[4] Эфрон Б. «Микрочипы, эмпирические байесовские модели и модель двух групп». Статистическая наука 23, нет. 1 (2008): 1–22.

[5] Джин, Джиашун и Т. Тони Кай. «Оценка нулевого и доли ненулевых эффектов в крупномасштабных многократных сравнениях». Журнал Американской статистической ассоциации 102, нет. 478 (1 июня 2007 г.): 495–506. DOI: 10.1198 / 016214507000000167.

[6] Клезен, Марк, Джесси Дэвис, Фрэнк Де Смет и Барт Де Мур. «Оценка двоичных классификаторов с использованием только положительных и немаркированных данных». arXiv: 1504.06837 [cs, Stat], 26 апреля 2015 г. http://arxiv.org/abs/1504.06837 .

JohnRos
источник
1
+1 , хотя мое главное из этого пункта было то , что процедура ВЕН фактически делает предложить способ оценки ФДСА (хотя и немного консервативен) и фактически делает оценить его , чтобы прийти к окончательному порогу отбраковки. Его алгоритмическое определение в качестве пошаговой процедуры в [1] скрывает это, но в конце дня оценка FDR - это именно то, что делает процедура BH !! (Эфрон часто подчеркивает это, но также см. Раздел 4. «Связь между двумя подходами» в вашей ссылке [3].)
эфир
2
Вы правы, что следуя [3, уравнение 2.5], можно увидеть, что процедура BH использует консервативную оценку FDR с . p0=1
JohnRos
0

Когда истинная базовая модель неизвестна, мы не можем вычислить FDR, но можем оценить значение FDR с помощью теста перестановки . В основном, процедура проверки перестановки просто выполняет проверку гипотезы несколько раз, изменяя вектор переменной результата с его перестановками. Это также может быть сделано на основе перестановок образцов, но не так часто, как предыдущий.

В данном документе рассматривается стандартная процедура перестановки для оценки FDR, а также предлагается новый оценщик FDR. Он должен быть в состоянии ответить на ваш вопрос.

Аарон Зенг
источник
3
Наиболее распространенная процедура, такая как BH, не использует тест перестановки. Что он использует? Кроме того, тесты перестановки обычно обеспечивают распределение при нулевом значении, не требует ли оценка FDR моделей как нулевого и альтернативного, так и соответствующей относительной пропорции каждого из них?
user4733
Во-первых, процедура BH - это способ управления FDR на заданном уровне . Дело не в оценке FDR. Во-вторых, тесты перестановки проводятся под нулевым из всех гипотез. Я не уверен, что вы подразумеваете под «требовать модели как нулевого, так и альтернативного, а также относительной пропорции каждого». Но когда вы устанавливаете свои гипотезы, у вас уже есть нулевая и альтернативная пары. Имеет ли это смысл? q
Аарон Зенг