Модели линейных смешанных эффектов

13

Я часто слышал, что модели LME более надежны при анализе данных о точности (т. Е. В психологических экспериментах), поскольку они могут работать с биномиальными и другими ненормальными распределениями, которые не могут традиционные методы (например, ANOVA).

Какова математическая основа моделей LME, которая позволяет им включать эти другие распределения, и что некоторые не слишком технические статьи описывают это?

Майк Вонг
источник

Ответы:

15

Одно из основных преимуществ моделей со смешанными эффектами состоит в том, что они не предполагают независимости между наблюдениями, и могут быть коррелированные наблюдения внутри единицы или кластера.

Это кратко описано в «Современной прикладной статистике с S» (MASS) в первом разделе главы 10 «Случайные и смешанные эффекты». V & R показывает пример с данными о бензине, сравнивая ANOVA и Ime в этом разделе, так что это хороший обзор. Функция R для использования в lmeв nlmeпакете.

Формулировка модели основана на Laird and Ware (1982), так что вы можете сослаться на это как на первоисточник, хотя это, конечно, плохо для введения.

Вы также можете взглянуть на приложение «Линейные смешанные модели» (PDF) к Джону Фоксу «Компаньон R и S-PLUS в прикладной регрессии». И в этой лекции Роджера Леви (PDF) обсуждаются модели смешанных эффектов с многомерным нормальным распределением.

Шейн
источник
Вау, Шейн, спасибо за очень быстрый ответ! Я посмотрю в эти ссылки!
Майк Вонг
10

Очень хорошая статья, объясняющая общий подход LMM и их преимущество перед ANOVA:

Линейные модели смешанных эффектов (LMM) обобщают регрессионные модели, чтобы иметь остаточные компоненты, случайные эффекты, на уровне, например, людей или предметов, а не только на уровне отдельных наблюдений. Модели очень гибкие, например, позволяют моделировать различные наклоны и точки пересечения.

LMM работают с использованием некоторой функции правдоподобия, вероятности того, что вашим данным задан какой-то параметр, и метода для максимизации этого (Максимальная оценка правдоподобия; MLE) путем работы с параметрами. MLE - это очень общий метод, позволяющий приспосабливать множество данных к различным моделям, например, для двоичных данных и данных подсчета, и объясняется в нескольких местах, например:

  • Агрести А. (2007). Введение в категориальный анализ данных (2-е издание) . Джон Вили и сыновья.

LMM, однако, не могут иметь дело с негауссовыми данными, такими как двоичные данные или счетчики; для этого вам нужны обобщенные линейные модели со смешанными эффектами (GLMM). Один из способов понять это - сначала изучить GLM; также см. Agresti (2007).

AndyF
источник
Есть ли ситуации, чтобы не выбирать lmm вместо anova?
Бен
8

Основным преимуществом LME для анализа точности данных является возможность учитывать ряд случайных эффектов. В психологических экспериментах исследователи обычно объединяют предметы и / или участников. Люди не только отличаются друг от друга, но и предметы различаются (например, некоторые слова могут быть более характерными или запоминающимися). Игнорирование этих источников изменчивости обычно приводит к недооценке точности (например, более низкие значения d '). Хотя проблему агрегации участников можно как-то решить с помощью индивидуальной оценки, эффекты элементов все еще присутствуют и обычно больше, чем эффекты участников. LME не только позволяет одновременно обрабатывать оба случайных эффекта, но и добавлять к ним дополнительные переменные предиктора (возраст, уровень образования, длина слова и т. Д.).

Действительно хорошим справочным материалом для LME, особенно в области лингвистики и экспериментальной психологии, является Анализ лингвистических данных: практическое введение в статистику с использованием R

ура

Дэйв Келлен
источник
2
... и в том же духе также пакет lme4 (который мне легче использовать, чем lme или nlme) и связанные пакеты из упомянутой выше книги Баайена, languageR.
Russellpierce
спасибо за комментарий, я с вами полностью согласен. lme4 просто лучший из всех.
Дэйв Келлен