В частности, я хочу знать, есть ли разница между lm(y ~ x1 + x2)
и glm(y ~ x1 + x2, family=gaussian)
. Я думаю, что этот конкретный случай glm равен lm. Я ошибся?
r
normal-distribution
generalized-linear-model
lm
user3682457
источник
источник
Ответы:
В то время как для конкретного вида модели упоминается в теле вопроса (т.е.
lm(y ~ x1 + x2)
противglm(y ~ x1 + x2, family=gaussian)
), регрессия и GLMS той же модели, название вопрос немного спрашивает что - то более общее:На что ответ "Да!"
Причина, по которой они могут отличаться, заключается в том, что вы также можете указать функцию ссылки в GLM. Это позволяет вам согласовывать конкретные формы нелинейных отношений междуY (или, скорее, его условным средним) и Икс переменными; в то время как вы можете сделать это
nls
также, нет необходимости в начальных значениях, иногда сходимость лучше (также синтаксис немного проще).Сравните, например, эти модели (у вас есть R, поэтому я предполагаю, что вы можете запустить их самостоятельно):
Итак, что касается вопроса о названии, вы можете использовать значительно более широкое разнообразие гауссовых моделей с GLM, чем с регрессией.
источник
MASS::rlm
Короткий ответ, они точно такие же:
Более длинный ответ; Функция glm соответствует модели по MLE, однако из-за допущения, которое вы сделали относительно функции связи (в данном случае нормального), вы получите оценки OLS.
источник
glm
являетсяglm(y ~ x1 + x2, family = gaussian(link = "identity"))
.Из ответа @ Repmat сводные данные о моделях те же, но CI коэффициентов регрессии
confint
немного отличаются междуlm
иglm
.lm
glm
источник