Вопросы с тегом «regression»

16
Пуассон или квази пуассон в регрессии с данными подсчета и избыточной дисперсией?

У меня есть данные подсчета (анализ спроса / предложения с подсчетом количества клиентов, в зависимости от - возможно - многих факторов). Я пробовал линейную регрессию с нормальными ошибками, но мой QQ-график не очень хорош. Я попробовал лог-преобразование ответа: еще раз плохой QQ-сюжет. Итак,...

16
Можно ли вообще рассортировать набор данных по размеру остатка и провести сравнение с двумя выборками?

Это то, что я вижу в качестве специального метода, и это мне кажется очень подозрительным, но, возможно, я что-то упустил. Я видел, как это делалось в множественной регрессии, но давайте просто сделаем это просто: yi=β0+β1xi+εiyi=β0+β1xi+εi y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i}...

16
Меры остаточной гетероскедастичности

Эта ссылка на Википедию перечисляет ряд методов для определения гетероскедастичности остатков МНК. Я хотел бы узнать, какой практический метод более эффективен в обнаружении областей, затронутых гетероскедастичностью. Например, здесь видно, что центральная область на графике OLS «Остаточные и...

16
Когда кто-то говорит, что для модели Пуассона остаточное отклонение / df должно составлять ~ 1, насколько приблизительным является приблизительное значение?

Я часто видел советы по проверке того, является ли подход Пуассона более рассредоточенным, включая деление остаточного отклонения на степени свободы. Результирующее соотношение должно быть «примерно 1». Вопрос в том, о каком диапазоне мы говорим о «приблизительном» - каково соотношение, которое...

16
Минимальное количество точек для линейной регрессии

Каким было бы «разумное» минимальное количество наблюдений для поиска тенденции во времени с линейной регрессией? как насчет подгонки квадратичной модели? Я работаю со сложными показателями неравенства в отношении здоровья (SII, RII), и у меня есть только 4 волны опроса, поэтому 4 балла...

16
Вопрос о том, как нормализовать коэффициент регрессии

Не уверен, что слово «нормализация» - это правильное слово, но я постараюсь сделать все возможное, чтобы проиллюстрировать то, что я пытаюсь спросить. Здесь используется оценка наименьших квадратов. Предположим, у вас есть y = β 0 + β 1 x 1y=β0+β1x1y=\beta_0+\beta_1x_1 , вы можете центрировать его...

16
Меняет ли добавление большего количества переменных в многовариантную регрессию коэффициенты существующих переменных?

Скажем, у меня есть регрессия с несколькими переменными (несколько независимых переменных), которая состоит из 3 переменных. Каждая из этих переменных имеет заданный коэффициент. Если я решу ввести 4-ю переменную и повторно запустить регрессию, изменятся ли коэффициенты 3 исходных переменных? В...

16
Как разделить r-квадрат между переменными предиктора в множественной регрессии?

Я только что прочитал статью, в которой авторы провели множественную регрессию с двумя предикторами. Общее значение r-квадрата составило 0,65. Они предоставили таблицу, которая делит r-квадрат между двумя предикторами. Стол выглядел так: rsquared beta df pvalue whole model 0.65 NA 2, 9 0.008...

16
Какая лучшая книга об обобщенных линейных моделях для новичков?

Я все еще довольно новичок в обобщенных линейных моделях, и я борюсь со многими обозначениями в большинстве текстов GLM, которые я выбрал. Существуют ли чрезвычайно популярные книги по GLM, которые лучше...

16
Отображение пространственной и временной корреляции на картах

У меня есть данные для сети метеостанций по всей территории Соединенных Штатов. Это дает мне фрейм данных, который содержит дату, широту, долготу и некоторое измеренное значение. Предположим, что данные собираются один раз в день и определяются погодой регионального масштаба (нет, мы не будем...

16
Каковы требования стационарности использования регрессии с ошибками ARIMA для вывода?

Каковы требования стационарности использования регрессии с ошибками ARIMA (динамическая регрессия) для вывода? В частности, у меня есть нестационарная непрерывная переменная исхода , нестационарная непрерывная переменная предиктора и ряд обработки фиктивных переменных . Я хотел бы знать,...

16
Литература по IV квантильной регрессии

В последние месяцы я интенсивно читал о квантильной регрессии, готовясь к моей магистерской диссертации этим летом. В частности, я прочитал большую часть книги Роджера Кенкера 2005 года на эту тему. Теперь я хочу расширить это существующее знание методами квантильной регрессии, которые учитывают...

16
Каков типичный диапазон возможных значений параметра усадки в штрафной регрессии?

В регрессии лассо или гребня необходимо указать параметр сжатия, часто называемый или . Это значение часто выбирается путем перекрестной проверки путем проверки множества различных значений на обучающих данных и определения того, какое из них дает наилучший результат, например, на тестовых данных....

16
Почему GLM отличается от LM с преобразованной переменной

Как поясняется в раздаточном материале этого курса (стр. 1) , линейная модель может быть записана в виде: y=β1x1+⋯+βpxp+εi,y=β1x1+⋯+βpxp+εi, y = \beta_1 x_{1} + \cdots + \beta_p x_{p} + \varepsilon_i, где - переменная ответа, а - пояснительная переменная .yyyxixix_{i}ithithi^{th} Часто с целью...

16
В каких именно условиях регрессия гребня способна обеспечить улучшение по сравнению с обычной регрессией наименьших квадратов?

Хребетная регрессия оценивает параметры в линейной модели by где - параметр регуляризации. Хорошо известно, что он часто работает лучше, чем регрессия OLS (с ), когда существует много коррелированных предикторов.у = Х & beta ; & beta ; А , = ( Х ⊤ Х + А , I ) - 1 х ⊤ у , А , А , =...

16
Почему «расслабленное лассо» отличается от стандартного лассо?

Если мы начнем с набора данных , применим к нему Лассо и получим решение , мы можем снова применить Лассо к набору данных , где - это набор ноль индексов , чтобы получить решение, , называемое «расслабленным решением LASSO» (поправьте меня, если я ошибаюсь!). Решение должно удовлетворять условиям...

16
Пирсон В.С. Остатки отклонений в логистической регрессии

Я знаю, что стандартизированные остатки Пирсона получены традиционным вероятностным способом: ri=yi−πiπi(1−πi)−−−−−−−−√ri=yi−πiπi(1−πi) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} и Остаточные отклонения получаются более статистическим способом (вклад каждой точки в вероятность):...

16
В множественной линейной регрессии, почему график предсказанных точек не лежит на прямой линии?

Я использую множественную линейную регрессию для описания отношений между Y и X1, X2. Из теории я понял, что множественная регрессия предполагает линейные отношения между Y и каждым из X (Y и X1, Y и X2). Я не использую какие-либо преобразования X. Итак, я получил модель с R = 0,45 и всем значимым...

16
Почему регрессия гребня не сократит некоторые коэффициенты до нуля, как лассо?

При объяснении регрессии LASSO часто используется диаграмма ромба и круга. Говорят, что поскольку форма ограничения в LASSO представляет собой алмаз, полученное решение наименьших квадратов может касаться угла алмаза, так что оно приводит к усадке некоторой переменной. Однако в регрессии гребня,...