Я просматривал этот обзор формул lm / lmer R от @conjugateprior и был озадачен следующей записью:
Теперь предположим, что A случайный, но B фиксирован, а B вложен в A.
aov(Y ~ B + Error(A/B), data=d)
Ниже приведена аналогичная смешанная модельная формула lmer(Y ~ B + (1 | A:B), data=d)
для того же случая.
Я не совсем понимаю, что это значит. В эксперименте, где субъекты делятся на несколько групп, мы имеем случайный фактор (субъекты), вложенный в фиксированный фактор (группы). Но как фиксированный фактор может быть вложен в случайный фактор? Что-то фиксированное, вложенное в случайные предметы? Это вообще возможно? Если это невозможно, имеют ли смысл эти формулы R?
Этот обзор упоминается будет частично , на основании страниц личностно-проекта по ведению ANOVA в R опиралась на этом учебнике на повторных измерений в R . Там приведен следующий пример для повторных измерений ANOVA:
aov(Recall ~ Valence + Error(Subject/Valence), data.ex3)
Здесь субъекты представлены словами различной валентности (фактор с тремя уровнями), и их время вспоминания измеряется. Каждый предмет представлен словами всех трех уровней валентности. Я не вижу ничего вложенного в этот дизайн (кажется, что он скрещен, как в великом ответе здесь ), и поэтому я наивно думаю, что Error(Subject)
или (1 | Subject)
должен быть подходящим случайным термином в этом случае. Subject/Valence
«Гнездования» (?) Сбивает с толку.
Обратите внимание, что я понимаю, что Valence
это фактор внутри субъекта . Но я думаю, что это не «вложенный» фактор в предметах (потому что все предметы испытывают все три уровня Valence
).
Обновить. Я изучаю вопросы по CV о кодировании повторных мер ANOVA в R.
Здесь следующее используется для фиксированных внутри субъекта / повторных измерений A и случайного
subject
:summary(aov(Y ~ A + Error(subject/A), data = d)) anova(lme(Y ~ A, random = ~1|subject, data = d))
Здесь для двух фиксированных внутри-субъектных / повторных измерений эффектов A и B:
summary(aov(Y ~ A*B + Error(subject/(A*B)), data=d)) lmer(Y ~ A*B + (1|subject) + (1|A:subject) + (1|B:subject), data=d)
Здесь для трех внутрисубъектных эффектов A, B и C:
summary(aov(Y ~ A*B*C + Error(subject/(A*B*C)), data=d)) lmer(Y ~ A*B*C + (1|subject) + (0+A|subject) + (0+B|subject) + (0+C|subject) + (0+A:B|subject) + (0+A:C|subject) + (0+B:C|subject), data = d)
Мои вопросы:
- Почему
Error(subject/A)
и нетError(subject)
? - Является ли это
(1|subject)
или(1|subject)+(1|A:subject)
или просто(1|A:subject)
? - Это
(1|subject) + (1|A:subject)
или нет(1|subject) + (0+A|subject)
, и почему не просто(A|subject)
?
К настоящему времени я видел некоторые потоки, которые утверждают, что некоторые из этих вещей эквивалентны (например, первое: утверждение, что они одинаковы, но противоположное требование к SO ; третье: вид утверждения, что они одинаковы ). Они?
источник
subject/condition
этому, это концептуально сомнительно, потому что, кажется, предполагает, что условия вложены в субъекты, когда очевидно, что это противоположно, но модель, которая на самом деле соответствуетsubject + subject:condition
, - это вполне допустимая модель со случайными эффектами субъекта. и случайный предмет X склонов.lm
иaov
формулы? Если я хочу иметь авторитетный источник о том, что именноaov
(это оберткаlm
?) И какError()
работают термины, где я должен искать?aov
это оболочкаlm
в том смысле, которыйlm
используется для подгонки наименьших квадратов, ноaov
выполняет дополнительную работу (в частности, переводитError
термин дляlm
). Официальным источником является исходный код или, возможно, ссылка, приведенная вhelp("aov")
: Chambers et al (1992). Но у меня нет доступа к этой ссылке, поэтому я посмотрю в исходный код.Ответы:
В смешанных моделях обработка факторов как фиксированных или случайных, особенно в сочетании с тем, являются ли они скрещенными, частично скрещенными или вложенными, может привести к путанице. Кроме того, по-видимому, существуют различия в терминологии между тем, что подразумевается под вложенностью в мире анова / спроектированных экспериментов, и миром смешанных / многоуровневых моделей.
Я не признаю, что знаю все ответы, и мой ответ не будет полным (и может вызвать дополнительные вопросы), но я попытаюсь решить некоторые из проблем здесь:
(название вопроса)
Нет, я не верю, что это имеет смысл. Когда мы имеем дело с повторяющимися мерами, то обычно, что бы ни повторялись меры, они будут случайными, давайте просто назовем это
Subject
, иlme4
мы захотим включитьSubject
справа от одного или нескольких|
случайную часть формула. Если у нас есть другие случайные эффекты, то они либо пересекаются, либо частично пересекаются, либо вкладываются - и мой ответ на этот вопрос касается этого.Проблема с этими разработанными экспериментами типа «анова», по-видимому, заключается в том, как бороться с факторами, которые обычно считаются фиксированными, в ситуации с повторными измерениями, и вопросы в теле ОП говорят об этом:
Я обычно не использую,
aov()
поэтому я мог что-то упустить, но для меняError(subject/A)
это очень вводит в заблуждение в случае связанного вопроса .Error(subject)
на самом деле приводит к точно таким же результатам.Это относится к этому вопросу. В этом случае все следующие формулировки случайных эффектов приводят к абсолютно одинаковому результату:
Однако это связано с тем, что смоделированный набор данных в вопросе не имеет изменений внутри чего-либо, он просто создается с помощью
Y = rnorm(48)
. Если мы возьмем реальный набор данных, такой какcake
набор данных вlme4
, мы обнаружим, что в общем случае это не так. Из документации приведена экспериментальная установка:Итак, мы повторили измерения внутри
replicate
, и нас также интересуют фиксированные факторыrecipe
иtemperature
(мы можем игнорировать,temp
так как это просто другое кодированиеtemperature
), и мы можем визуализировать ситуацию, используяxtabs
:Если бы
recipe
это был случайный эффект, мы бы сказали, что это скрещенные случайные эффекты. Ни в коем случае неrecipe A
принадлежитreplicate 1
или любой другой копии.Аналогично для
temp
.Итак, первая модель, которая нам подойдет:
Это будет относиться к каждому
replicate
как к единственному источнику случайных отклонений (кроме разности, конечно). Но могут быть случайные различия между рецептами. Таким образом, у нас может возникнуть соблазн включить вrecipe
качестве еще одного (скрещенного) случайного эффекта, но это было бы необоснованным, поскольку у нас есть только 3 уровня,recipe
поэтому мы не можем ожидать, что модель будет хорошо оценивать компоненты дисперсии. Таким образом, вместо этого мы можем использоватьreplicate:recipe
в качестве переменной группировки, которая позволит нам рассматривать каждую комбинацию репликации и рецепта как отдельный фактор группировки. Так что если в приведенной выше модели у нас было бы 15 случайных перехватов для уровней,replicate
то теперь у нас будет 45 случайных перехватов для каждой из отдельных комбинаций:Обратите внимание, что теперь у нас есть (очень немного) разные результаты, указывающие, что есть некоторая случайная изменчивость из-за рецепта, но не очень.
Мы могли бы сделать то же самое с
temperature
.Теперь, возвращаясь к вашему вопросу, вы также спросите
Я не совсем уверен, откуда это (с использованием случайных уклонов) происходит - это, кажется, не возникает в 2 связанных вопросах - но моя проблема в
(1|subject) + (1|A:subject)
том, что это точно то же самое,(1|subject/A)
что означает, чтоA
вложено вsubject
, что в Поворот означает (для меня), что каждый уровеньA
происходит в 1 и только 1 уровень,subject
который здесь явно не тот.Я, вероятно, добавлю и / или отредактирую этот ответ после того, как еще немного подумаю, но я хотел, чтобы мои первоначальные мысли были опущены.
источник
cake
набор данных. Кажется, что репликация вложена в рецепт; причинаxtabs
не показывает, что это именно та причина, которую вы описываете в своем ответе «вложенный-против-скрещенный»: репликация запутанно кодируется как 1-15, а не как 1-45. Для каждого рецепта было сделано 15 «повторений» с 6 пирожными; затем каждый пирог выпекали при разной температуре. Таким образом, рецепт - это фактор между субъектами, а температура - фактор внутри объекта. Так что согласно твоему ответу, так и должно быть(1|recipe/replicate)
. Нет?(1|replicate:recipe)
вероятно эквивалентно.cake
только одним рецептом. Что касается третьего пункта, о котором вы говорите, что не знаете, откуда он взялся, просмотрите самую последнюю ссылку в моем вопросе с примером трех внутрисубъектных факторов. См. Также комментарий Джейка под голосом «Q», где он упоминает случайные уклоны.aov
вас правы, что кажется, чтоError(subject/A)
иError(subject)
дают те же результаты, если нет других факторов, но возьмем пример из связанной ветки с двумя факторами, а тамError(subject/(A*B))
иError(subject)
не эквивалентны. В настоящее время я понимаю, что это потому, что первый включает в себя случайные наклоны.cake
набор данных не был хорошим рабочим примером. Мои извенения. Я посмотрю немного глубже и, возможно, попытаюсь найти лучший для иллюстрации.Ooooops. Оповещатели заметили, что мой пост был полон чепухи. Я путал вложенные дизайны и повторные меры дизайна.
Этот сайт дает полезную разбивку различий между вложенными и повторными измерениями. Интересно, что автор показывает ожидаемые средние квадраты для фиксированной в фиксированной, случайной в фиксированной и случайной в случайной - но не фиксированной в случайной. Трудно представить, что бы это значило - если факторы уровня A выбираются случайным образом, то случайность теперь определяет выбор факторов уровня B. Если 5 школ выбираются случайным образом из школьного совета, а затем 3 учителя Выбранные из каждой школы (учителя, вложенные в школы), уровни фактора «учитель» теперь являются случайным выбором учителей из школьного совета в силу случайного выбора школ. Я не могу «починить» учителей, которые будут у меня в эксперименте.
источник