Я прочитал в реферате этой статьи, что:
«Процедура максимального правдоподобия (ML) в Hartley aud Rao модифицируется путем адаптации преобразования Паттерсона и Томпсона, которое делит нормальность правдоподобия на две части, одна из которых не имеет фиксированных эффектов. Максимизация этой части дает то, что называется ограниченным максимальным правдоподобием (REML) оценки ".
Я также прочитал в реферате этой статьи, что REML:
«учитывает потерю степеней свободы в результате оценки фиксированных эффектов».
К сожалению, у меня нет доступа к полному тексту этих документов (и, вероятно, я бы не понял, если бы я сделал).
Кроме того, каковы преимущества REML против ML? При каких обстоятельствах REML может быть предпочтительнее ML (или наоборот) при подборе модели смешанных эффектов? Пожалуйста, дайте объяснение, подходящее для кого-то со средним образованием (или чуть выше) математическим образованием!
источник
Ответы:
Согласно ответу ocram, ML смещен для оценки компонентов дисперсии. Но обратите внимание, что смещение становится меньше для больших размеров выборки. Следовательно, в ответ на ваши вопросы « ... каковы преимущества REML против ML? При каких обстоятельствах REML может быть предпочтительнее, чем ML (или наоборот) при подборе модели со смешанными эффектами? », Для малых размеров выборки REML предпочтительнее. Однако тесты отношения правдоподобия для REML требуют одинаковой спецификации фиксированных эффектов в обеих моделях. Таким образом, для сравнения моделей с различными фиксированными эффектами (общий сценарий) с тестом LR необходимо использовать ML.
REML учитывает количество оцененных (фиксированных эффектов) параметров, теряя 1 степень свободы для каждого. Это достигается применением ML к остаткам наименьших квадратов, которые не зависят от фиксированных эффектов.
источник
Вот быстрый ответ ...
Стандартный иллюстративный пример
Оценка REML часто используется в более сложном контексте смешанных моделей. В каждой книге по смешанным моделям есть раздел, в котором более подробно объясняется оценка REML.
редактировать
@Joe King: Вот одна из моих любимых книг о смешанных моделях, которая полностью доступна онлайн. Раздел 2.4.2 посвящен оценке компонентов дисперсии. Приятного чтения :-)
источник
Метод ML недооценивает параметры дисперсии, поскольку предполагает, что фиксированные параметры известны без неопределенности при оценке параметров дисперсии.
Метод REML использует математический прием, чтобы сделать оценки параметров дисперсии независимыми от оценок для фиксированных эффектов. REML работает, сначала получая остатки регрессии для наблюдений, смоделированных частью модели с фиксированными эффектами, игнорируя в этой точке любые компоненты дисперсии.
Оценки ML несмещены для фиксированных эффектов, но смещены для случайных эффектов, тогда как оценки REML смещены для фиксированных эффектов и несмещены для случайных эффектов.
источник