Вопросы с тегом «regression»

26
Предварительные условия для сравнения моделей AIC

Какие именно предварительные условия необходимо выполнить для сравнения моделей AIC для работы? Я только пришел к этому вопросу, когда я сделал сравнение, как это: > uu0 = lm(log(usili) ~ rok) > uu1 = lm(usili ~ rok) > AIC(uu0) [1] 3192.14 > AIC(uu1) [1] 14277.29 Таким образом, я...

26
Почему регрессия Бета / Дирихле не считается обобщенной линейной моделью?

Предпосылка это цитата из виньетки R пакета betareg1 . Более того, модель разделяет некоторые свойства (такие как линейный предиктор, функция связи, параметр дисперсии) с обобщенными линейными моделями (GLM; McCullagh and Nelder 1989), но это не частный случай этой структуры (даже для фиксированной...

26
Что такое тета в отрицательной биномиальной регрессии, снабженной R?

У меня есть вопрос относительно отрицательной биномиальной регрессии: предположим, что у вас есть следующие команды: require(MASS) attach(cars) mod.NB<-glm.nb(dist~speed) summary(mod.NB) detach(cars) (Обратите внимание, что автомобили - это набор данных, который доступен в R, и мне все равно,...

26
Преимущества двойного лассо или двойного лассо?

Однажды я слышал метод использования лассо дважды (например, двойное лассо), когда вы выполняете лассо на исходном наборе переменных, скажем, S1, получаете разреженный набор с именем S2, а затем снова выполняете лассо на множестве S2, чтобы получить множество S3. , Есть ли методологический термин...

26
Зачем использовать оценки Лассо над оценками OLS для Лассо-идентифицированного подмножества переменных?

Для регрессии Лассо предположим что лучшее решение (например, минимальная ошибка тестирования) выбирает k функций, так что \ hat {\ beta} ^ {lasso} = \ left (\ hat {\ beta} _1 ^ {lasso}, \ hat {\ beta} _2 ^ {lasso}, ..., \ hat {\ beta} _k ^ {lasso}, 0, ... 0 \ right) .K β л ы ы о = ( β л с ы о 1 ,...

26
Эквивалентность наименьших квадратов и MLE в гауссовой модели

Я новичок в машинном обучении и пытаюсь научиться этому сам. Недавно я читал некоторые конспекты лекций и у меня возник основной вопрос. Слайд 13 говорит, что «Оценка по методу наименьших квадратов такая же, как и оценка максимального правдоподобия по гауссовой модели». Кажется, это что-то простое,...

26
Подгонка синусоидального термина к данным

Хотя я читаю этот пост, я все еще не знаю, как применить это к моим собственным данным, и надеюсь, что кто-то может мне помочь. У меня есть следующие данные: y <- c(11.622967, 12.006081, 11.760928, 12.246830, 12.052126, 12.346154, 12.039262, 12.362163, 12.009269, 11.260743, 10.950483, 10.522091,...

26
Преобразование переменных для множественной регрессии в R

Я пытаюсь выполнить множественную регрессию в R. Однако моя зависимая переменная имеет следующий график: Вот матрица диаграммы рассеяния со всеми моими переменными ( WARэто зависимая переменная): Я знаю, что мне нужно выполнить преобразование для этой переменной (и, возможно, независимых...

26
Точность измерения логистической регрессионной модели

У меня есть обученная модель логистической регрессии, которую я применяю к набору данных тестирования. Зависимая переменная является двоичной (булевой). Для каждого образца в наборе данных тестирования я применяю модель логистической регрессии для генерации% вероятности того, что зависимая...

26
Как интерпретировать коэффициент стандартных ошибок в линейной регрессии?

Мне интересно, как интерпретировать коэффициент стандартных ошибок регрессии при использовании функции отображения в R. Например, в следующем выводе: lm(formula = y ~ x1 + x2, data = sub.pyth) coef.est coef.se (Intercept) 1.32 0.39 x1 0.51 0.05 x2 0.81 0.02 n = 40, k = 3 residual sd = 0.90,...

26
Геометрическая интерпретация штрафной линейной регрессии

Я знаю, что линейная регрессия может рассматриваться как «линия, которая расположена ближе всего ко всем точкам» : Но есть и другой способ увидеть это, визуализируя пространство столбцов как «проекцию на пространство, охватываемое столбцами матрицы коэффициентов» : Мой вопрос: в этих двух...

26
Как линейная регрессия использует нормальное распределение?

При линейной регрессии предполагается, что каждое прогнозируемое значение было выбрано из нормального распределения возможных значений. Увидеть ниже. Но почему предполагается, что каждое прогнозируемое значение получено из нормального распределения? Как линейная регрессия использует это...

25
Независимая переменная = Случайная переменная?

Я немного сбит с толку, если независимая переменная (также называемая предиктором или признаком) в статистической модели, например в линейной регрессии , является случайной величиной?Y = β 0 + β 1 XXXXY=β0+β1XY=β0+β1XY=\beta_0+\beta_1...

25
Как смоделировать это распределение нечетной формы (почти наоборот-J)

Моя зависимая переменная, показанная ниже, не подходит ни под какой дистрибутив, который я знаю. Линейная регрессия приводит к несколько ненормальным отклонениям в правильном направлении, которые странным образом относятся к предсказанному Y (2-й график). Какие-либо предложения для преобразований...

25
Интерпретация регуляризации гребня в регрессии

У меня есть несколько вопросов, касающихся штрафа за ребро в контексте наименьших квадратов: βR i Dге= ( λ ID+ X'Икс)- 1Икс'Yβряdгезнак равно(λяD+Икс'Икс)-1Икс'Y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) Выражение предполагает, что ковариационная матрица X сжимается в сторону диагональной...

25
Для чего нужны переменные рейтинги важности?

Я стал чем-то вроде нигилистов, когда дело доходит до переменных уровней ранжирования (в контексте многомерных моделей всех видов). Часто в ходе моей работы меня просят либо помочь другой команде составить рейтинг с переменной степенью важности, либо создать рейтинг с переменной степенью важности...

25
Интерпретация графика невязок и подгоночных значений из регрессии Пуассона

Я пытаюсь согласовать данные с GLM (регрессия Пуассона) в R. Когда я построил графики остатков и подгоночных значений, график создал несколько (почти линейных с небольшой вогнутой кривой) «линий». Что это значит? library(faraway) modl <- glm(doctorco ~ sex + age + agesq + income + levyplus +...

25
Как главные главные компоненты могут сохранять предсказательную силу зависимой переменной (или даже приводить к лучшим прогнозам)?

Предположим , что я бегу регрессию . Почему, выбирая главные основных компонентов X , модель сохраняет свою предсказательную силу на Y ?k X YY∼ XY~ИксY \sim XККkИксИксXYYY Я понимаю, что с точки зрения уменьшения размерности / выбора признаков, если v1, v2, . , , vКv1,v2,,,,vКv_1, v_2, ... v_k...

25
Какие диагностические графики существуют для квантильной регрессии?

Следуя моему вопросу об OLS , я задаюсь вопросом: какие диагностические графики существуют для квантильной регрессии? (и есть ли у R их реализация?) Быстрый поиск в гугле уже привел к появлению червя (о котором я никогда раньше не слышал), и я был бы рад узнать о других методах, о которых вы могли...