Я читаю теоретическую статью Дуга Бейтса о пакете lme4 в R, чтобы лучше понять суть смешанных моделей, и натолкнулся на интригующий результат, который я хотел бы лучше понять, об использовании ограниченного максимального правдоподобия (REML) для оценки дисперсии ,
В разделе 3.3, посвященном критерию REML, он утверждает, что использование REML при оценке отклонений тесно связано с использованием коррекции степеней свободы при оценке отклонений от остаточных отклонений в подобранной линейной модели. В частности, «хотя это обычно не получается таким образом», коррекция степеней свободы может быть получена путем оценки дисперсии путем оптимизации «критерия REML» (уравнение (28)). Критерий REML, по сути, является просто вероятностью, но параметры линейного соответствия были исключены путем маргинализации (вместо того, чтобы устанавливать их равными оценке соответствия, что давало бы смещенную выборочную дисперсию).
Я сделал математику и проверил заявленный результат для простой линейной модели с фиксированными эффектами. С чем я борюсь, так это с интерпретацией. Есть ли какая-то перспектива, из которой естественно получить оценку отклонения путем оптимизации вероятности того, что параметры подгонки были обособлены? Это похоже на байесовский эффект, как будто я думаю о вероятности апостериорного и маргинализирующего соответствия параметров, как будто они являются случайными переменными.
Или же обоснование в первую очередь просто математическое - оно работает в линейном случае, но также обобщается?