В R, если я напишу
lm(a ~ b + c + b*c)
это все еще будет линейной регрессией?
Как сделать другие виды регрессии в R? Буду признателен за рекомендации по учебникам или учебникам?
r
regression
suprvisr
источник
источник
lm()
обозначает линейную регрессию. Ваша модель включает в себя три параметра (минус перехватывать) дляb
,c
и их взаимодействияb:c
, что означаетb + c + b:c
илиb*c
для краткости (R следует нотации Уилкинсона для статистических моделей). Подгонка обобщенной линейной модели (т. Е. Когда функция связи не является тождественной, как в случае с линейной моделью, описанной выше) запрашивается черезglm()
.Ответы:
Линейный относится к взаимосвязи между оцениваемыми параметрами (например, ) и результатом (например, ). Следовательно, является линейным, а - нет. Линейная модель означает, что ваша оценка вашего вектора параметров может быть записана как , где - это веса, определенные вашей процедурой оценки. Линейные модели могут быть решены алгебраически в замкнутой форме, в то время как многие нелинейные модели должны быть решены путем численного максимизации с использованием компьютера.у я у = е х & beta ; + & epsi ; у = е & beta ; х + & epsi ; & beta ; = Σ я ш я у я { ш я }β yi y=exβ+ϵ y=eβx+ϵ β^=∑iwiyi {wi}
источник
Этот пост на minitab.com дает очень четкое объяснение:
Response = constant + parameter * predictor + ... + parameter * predictor
источник
Я был бы осторожен, задавая это как вопрос «R линейной регрессии» против вопроса «линейной регрессии». Формулы в R содержат правила, о которых вы можете знать или не знать. Например:
http://wiener.math.csi.cuny.edu/st/stRmanual/ModelFormula.html
Предполагая, что вы спрашиваете, является ли следующее уравнение линейным:
Ответ - да, если вы собираете новую независимую переменную, такую как:
Подстановка приведенного выше уравнения newv в исходное уравнение, вероятно, выглядит так, как вы ожидаете для линейного уравнения:
Что касается ссылок, Google "r регресс", или как вы думаете, может работать для вас.
источник
a
есть линейная функция четырех коэффициентов.Вы можете записать линейную регрессию в виде (линейного) матричного уравнения.
или если вы свернете это:
Эта линейная регрессия эквивалентна нахождению линейной комбинации векторов , и , ближайшей к вектору .b c b∗c a
(Это также имеет геометрическую интерпретацию как нахождение проекции на диапазон векторов , и . Для задачи с двумя векторами столбцов с тремя измерениями это все еще можно нарисовать как рисунок, например, как показано здесь: http://www.math.brown.edu/~banchoff/gc/linalg/linalg.html )a b c b∗c
Понимание этой концепции также важно при нелинейной регрессии. Например, гораздо проще решить чем поскольку первая параметризация позволяет решить коэффициенты и с помощью методов линейной регрессии. y = u ( e c ( t - v ) + e d ( t - v ) ) a by=aect+bedt y=u(ec(t−v)+ed(t−v)) a b
источник