Вопросы с тегом «regression»

21
Регрессия Пуассона против регрессии по методу наименьших квадратов?

Пуассоновская регрессия - это GLM с функцией log-link. Альтернативный способ моделирования данных с ненормально распределенным счетчиком - это предварительная обработка путем взятия журнала (или, скорее, журнала (1 + счет) для обработки 0). Если вы выполняете регрессию методом наименьших квадратов...

21
Сложность тестирования линейности в регрессии

В статистическом моделировании: две культуры Лев Брейман пишет В настоящее время применяется практика проверки соответствия модели данных с помощью тестов соответствия и анализа остаточных данных. Однажды, несколько лет назад, я поставил задачу симулированной регрессии в семи измерениях с...

21
Расхождение с регрессом ANOVA (aov против lm в R)

У меня всегда было впечатление, что регрессия - это просто более общая форма ANOVA и результаты будут идентичны. Однако недавно я провел и регрессию, и ANOVA для одних и тех же данных, и результаты значительно различаются. То есть в регрессионной модели значимы как основные эффекты, так и...

21
Разница между регрессионным анализом и дисперсионным анализом?

Этот вопрос был перенесен из Математического стека обмена, потому что на него можно ответить по перекрестной проверке. Мигрировал 7 лет назад . Сейчас я учусь регрессионному анализу и анализу отклонений. В регрессионном анализе у вас есть одна фиксированная переменная, и вы хотите знать, как...

21
Как рассчитать качество посадки в glm (R)

У меня есть следующий результат от запуска функции GLM. Как я могу интерпретировать следующие значения: Нулевое отклонение Остаточное отклонение AIC Они имеют какое-то отношение к совершенству? Могу ли я рассчитать некоторую степень достоверности соответствия по этим результатам, таким как...

21
Многократное вменение и выбор модели

Многократное вменение довольно просто, если у вас есть априори линейная модель, которую вы хотите оценить. Тем не менее, вещи кажутся немного сложнее, когда вы на самом деле хотите сделать выбор модели (например, найти «лучший» набор переменных-предикторов из большего набора переменных-кандидатов -...

21
Важность предикторов в множественной регрессии: частичное против стандартизированных коэффициентов

Мне интересно, какова точная связь между частичным и коэффициентами в линейной модели и должен ли я использовать только один или оба, чтобы проиллюстрировать важность и влияние факторов.R2R2R^2 Насколько я знаю, с помощью summaryя получаю оценки коэффициентов, а с anovaсуммой квадратов для каждого...

21
Два способа использования бутстрапа для оценки доверительного интервала коэффициентов в регрессии

Я применяю линейную модель к своим данным: yi=β0+β1xi+ϵi,ϵi∼N(0,σ2).yi=β0+β1xi+ϵi,ϵi∼N(0,σ2). y_{i}=\beta_{0}+\beta_{1}x_{i}+\epsilon_{i}, \quad\epsilon_{i} \sim N(0,\sigma^{2}). Я хотел бы оценить доверительный интервал (CI) коэффициентов ( , \ beta_ {1} ), используя метод начальной загрузки. Есть...

21
Случайный лес против регрессии

Я запустил модель регрессии МНК на наборе данных с 5 независимыми переменными. Независимые переменные и зависимые переменные являются непрерывными и линейно связаны. Площадь R составляет около 99,3%. Но когда я запускаю то же самое, используя случайный лес в R, мой результат выглядит так: «% Var...

21
Лог-линейная регрессия против логистической регрессии

Может ли кто-нибудь предоставить четкий список различий между логарифмической регрессией и логистической регрессией? Я понимаю, что первая - это простая модель линейной регрессии, но я не знаю, когда следует использовать каждую из...

21
Причина не сокращения срока смещения (перехвата) в регрессии

Для линейной модели y=β0+xβ+εYзнак равноβ0+Иксβ+εy=\beta_0+x\beta+\varepsilon сжимающий член всегда равен P(β)п(β)P(\beta) . В чем причина того, что мы не уменьшаем смещение (перехват) члена β0β0\beta_0 ? Должны ли мы сократить срок смещения в моделях нейронных...

21
Как описать или визуализировать модель множественной линейной регрессии

Я пытаюсь приспособить модель множественной линейной регрессии к моим данным с помощью пары входных параметров, скажем, 3. F( х )F( х )= A x1+ B x2+ CИкс3+ дили= ( A B C  )Т( х1 Икс2 Икс3) + d(я)(II)(я)F(Икс)знак равноAИкс1+ВИкс2+СИкс3+dили(II)F(Икс)знак равно(A В С)Т(Икс1 Икс2 Икс3)+d\begin{align}...

21
В простой линейной регрессии, откуда берется формула для дисперсии остатков?

Согласно тексту, который я использую, формула для дисперсии остатка определяется как:ithithi^{th} σ2(1−1n−(xi−x¯¯¯)2Sxx)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) Я нахожу это трудно поверить , так как остаточная разница между наблюдаемым...

21
R-квадрат в квантильной регрессии

Я использую квантильную регрессию, чтобы найти предикторы 90-го процентиля моих данных. Я делаю это в R, используя quantregпакет. Как я могу определить для квантильной регрессии, которая укажет, насколько изменчивость объясняется переменными предиктора?r2r2r^2 Что я действительно хочу знать: «Любой...

21
Почему нормальность остатков «едва важна вообще» для оценки линии регрессии?

Гельман и Хилл (2006) пишут на стр. 46, что: Предположение регрессии, которое обычно наименее важно, состоит в том, что ошибки обычно распределяются. Фактически, для оценки линии регрессии (по сравнению с прогнозированием отдельных точек данных) предположение о нормальности едва ли вообще важно....

21
Когда использовать данные Пуассона против геометрических и отрицательных биномиальных GLM для данных подсчета?

Я пытаюсь сделать макет для себя, когда уместно использовать тип регрессии (геометрический, пуассоновский, отрицательный бином) с данными счета в рамках GLM (только 3 из 8 распределений GLM используются для данных счета, хотя большая часть того, что Я читал центры вокруг отрицательных биномиальных...

21
Почему квазипуассон в GLM не рассматривается как частный случай отрицательного бинома?

Я пытаюсь приспособить обобщенные линейные модели к некоторым наборам данных подсчета, которые могут быть или не быть перераспределены. Здесь применимы два канонических распределения: Пуассон и Отрицательный бином (Негбин) с EV и дисперсией.μμ\mu Вгп= μВaрпзнак равноμVar_P = \mu ВгNВ= μ +...

21
покрытие доверительных интервалов регуляризованными оценками

Предположим, я пытаюсь оценить большое количество параметров по многомерным данным, используя некие регуляризованные оценки. Регуляризатор вносит некоторую погрешность в оценки, но это все же может быть хорошим компромиссом, потому что уменьшение дисперсии должно более чем компенсировать это....