Является ли основанное на точности взвешивание центральным для мета-анализа? Боренштейн и соавт. (2009) пишут, что для мета-анализа все, что необходимо, это то, что:
- Исследования сообщают о точечной оценке, которая может быть выражена одним числом.
- Дисперсия может быть вычислена для этой точечной оценки.
Мне не сразу понятно, почему (2) строго необходимо. Но, действительно, все общепринятые методы метаанализа опираются на весовые схемы, основанные на точности (т.е. обратная дисперсия), которые требуют оценки дисперсии для величины эффекта каждого исследования. Обратите внимание, что хотя метод Хеджеса (Hedges & Olkin, 1985; Hedges & Vevea, 1998) и метод Хантера и Шмидта (Hunter & Schmidt, 2004) в основном используют взвешивание по размеру выборки, эти методы применяются только к нормализованным средним различиям и поэтому требуют стандартное отклонение в другом месте. Имеет смысл, что веса, обратно пропорциональные дисперсии в каждом исследовании, минимизируют дисперсию в оценке общего размера эффекта, так является ли эта схема взвешивания обязательной характеристикой всех методов?
Можно ли провести систематический обзор без доступа к дисперсии для каждого размера эффекта и при этом назвать результат метаанализом? Казалось бы, размер выборки может использоваться в качестве прокси для точности, когда дисперсия недоступна. Можно ли, например, использовать взвешивание размера выборки в исследовании, где размер эффекта был определен как грубая средняя разница? Как это повлияет на последовательность и эффективность полученного среднего размера эффекта?
источник
Ответы:
На этот вопрос трудно ответить, потому что он так показателен для общей путаницы и запутанного положения в большей части мета-аналитической литературы (здесь не виноват ОП - это литература и описание методов). , модели и предположения, что часто беспорядок).
Но вкратце: нет, если вы хотите объединить несколько оценок (которые дают количественную оценку некоторого эффекта, степени ассоциации или другого результата, который считается уместным), и разумно объединить эти цифры, тогда вы могли бы просто взять их (невзвешенное) среднее, и это было бы прекрасно. Ничего плохого в этом нет, и в моделях, которые мы обычно предполагаем при проведении метаанализа, это даже дает объективную оценку (при условии, что сами оценки объективны). Так что нет, вам не нужны выборочные отклонения для объединения оценок.
Так почему же обратное взвешивание почти синонимично с метаанализом? Это связано с общей идеей, что мы придаем больше правдоподобия крупным исследованиям (с меньшими отклонениями выборки), чем более мелким исследованиям (с большими отклонениями выборки). Фактически, в предположениях обычных моделей, использование обратного дисперсионного взвешивания приводит к равномерно минимальной дисперсии несмещенной оценки(UMVUE) - ну, вроде, опять-таки, принимая несмещенные оценки и игнорируя тот факт, что дисперсии выборки на самом деле часто точно не известны, но оцениваются сами, и в моделях со случайными эффектами мы также должны оценить компонент дисперсии для неоднородности, но тогда мы просто рассматривали ее как известную константу, что тоже не совсем верно ... но да, мы как бы получаем UMVUE, если используем взвешивание обратной дисперсии, если мы просто сильно прищурим глаза и игнорируем некоторые из них вопросы.
Таким образом, на карту поставлена эффективность оценщика, а не сама объективность. Но даже невзвешенное среднее часто не будет намного менее эффективным, чем использование взвешенного среднего с обратной дисперсией, особенно в моделях со случайными эффектами и когда величина неоднородности велика (в этом случае обычная схема взвешивания приводит к почти однородным весам тем не мение!). Но даже в моделях с фиксированными эффектами или с небольшой неоднородностью разница часто не является подавляющей.
И, как вы упоминаете, можно также легко рассмотреть другие схемы взвешивания, такие как взвешивание по размеру выборки или какой-либо ее функции, но опять-таки это просто попытка получить что-то близкое к весам обратной дисперсии (поскольку дисперсии выборки в значительной степени определяется размером выборки исследования).
Но на самом деле можно и нужно «отделить» проблему весов и дисперсий в целом. Это действительно две отдельные части, о которых нужно подумать. Но это просто не то, как вещи обычно представлены в литературе.
Однако суть в том, что вам действительно нужно подумать об обоих. Да, вы можете взять невзвешенное среднее в качестве вашей комбинированной оценки, и это, по сути, будет мета-анализ, но как только вы захотите начать делать выводы на основе этой комбинированной оценки (например, провести проверку гипотезы, построить доверительный интервал) ), вам нужно знать дисперсию выборки (и количество неоднородностей). Подумайте об этом следующим образом: если вы объединяете кучу небольших (и / или очень разнородных) исследований, ваша точечная оценка будет намного менее точной, чем если вы объедините одно и то же число очень больших (и / или однородных) исследования - независимо от того, как вы оценили свои оценки при расчете совокупной стоимости.
На самом деле, есть даже некоторые способы не знать отклонения выборки (и степень неоднородности), когда мы начинаем выводить статистику. Можно рассмотреть методы, основанные на повторной выборке (например, начальная загрузка, тестирование перестановки) или методы, которые дают согласованные стандартные ошибки для комбинированной оценки, даже когда мы неправильно указываем части модели - но насколько хорошо эти подходы могут работать, необходимо тщательно оценить на в каждом конкретном случае.
источник
Если вы знаете некоторые из стандартных ошибок, но не все из них, вот решение:
(1) предположим, что неизвестная SE взята случайным образом из того же распределения, что и известные SE, или пусть распределение SE оценок работ с неизвестной SE является свободной переменной. Если вы хотите проявить фантазию, вы можете использовать модельное усреднение по этим параметрам.
(2) оценить по максимальной вероятности
Если ваше исследование с неизвестным SE является «отклонением», модель объяснит аномалию комбинацией следующих способов:
(a) исследование, вероятно, имело высокую SE для оценки (исследование, вероятно, имеет низкую мощность)
(b) исследование, вероятно, имеет большой компонент случайного эффекта (исследователь выбрал набор данных или метод и т. д., который дает нетипичный результат)
По сути, эта модель снизит эффективную точность оценки с неизвестным SE, поскольку она становится более аномальной. В этом отношении он очень устойчив к включению «выбросов». В то же время, если вы добавите много исследований с неизвестной дисперсией, но с типичными результатами, SE или ваша окончательная оценка упадут.
источник