Вопросы с тегом «regression»

32
Функция стоимости в линейной регрессии МНК

Меня немного смущает лекция Эндрю Нга о линейной регрессии, посвященная машинному обучению. Там он дал функцию стоимости, которая минимизирует сумму квадратов как: 12m∑i=1m(hθ(X(i))−Y(i))212m∑i=1m(hθ(X(i))−Y(i))2 \frac{1}{2m} \sum _{i=1}^m \left(h_\theta(X^{(i)})-Y^{(i)}\right)^2 Я понимаю, откуда...

32
Архитектуры CNN для регрессии?

Я работал над проблемой регрессии, когда входной сигнал представляет собой изображение, а метка представляет собой непрерывное значение между 80 и 350. Изображения имеют некоторые химические вещества после реакции. Цвет, который получается, указывает концентрацию другого химического вещества,...

32
Существуют ли алгоритмы для вычисления «работающих» параметров линейной или логистической регрессии?

В документе «Точное вычисление текущей дисперсии» по адресу http://www.johndcook.com/standard_deviation.html показано, как вычислить среднее значение, дисперсию и стандартные отклонения. Существуют ли алгоритмы, в которых параметры модели линейной или логистической регрессии можно аналогичным...

32
Наборы данных, построенные с целью, аналогичной таковой в квартете Анскомба

Я только что натолкнулся на квартет Анскомба (четыре набора данных, которые имеют почти неразличимую описательную статистику, но выглядят совсем иначе при построении графика), и мне любопытно, есть ли другие более или менее известные наборы данных, которые были созданы, чтобы продемонстрировать...

31
Нужен ли градиентный спуск, чтобы найти коэффициенты модели линейной регрессии?

Я пытался научиться машинному обучению, используя материал Coursera . В этой лекции Эндрю Нг использует алгоритм градиентного спуска, чтобы найти коэффициенты модели линейной регрессии, которая минимизирует функцию ошибки (функцию стоимости). Для линейной регрессии нужен ли градиентный спуск?...

31
Коэффициенты регрессии, которые переворачивают знак после включения других предикторов

Представить Вы запускаете линейную регрессию с четырьмя числовыми предикторами (IV1, ..., IV4) Когда в качестве предиктора включен только IV1, стандартизированная бета +.20 Когда вы также включаете IV2-IV4, знак стандартизированного коэффициента регрессии IV1 меняется на -.25(т.е. он становится...

31
Анализ со сложными данными, что-нибудь другое?

Скажем, например, вы делаете линейную модель, но данные сложны.yyy y=xβ+ϵy=xβ+ϵ y = x \beta + \epsilon Мой набор данных сложен, так как все числа в имеют форму . Есть ли что-то процедурное при работе с такими данными?( а + б я )yyy(a+bi)(a+bi)(a + bi) Я спрашиваю, потому что вы в конечном итоге...

31
Обнаружение значимых предикторов из множества независимых переменных

В наборе данных из двух непересекающихся групп населения (пациенты и здоровые, всего ) я хотел бы найти (из независимых переменных) значимые предикторы для непрерывной зависимой переменной. Корреляция между предикторами присутствует. Я заинтересован в том, чтобы выяснить, связан ли какой-либо из...

31
Отрицательный вопрос о биномиальной регрессии - плохая модель?

Я читаю очень интересную статью Селлерса и Шмуэли о регрессионных моделях для подсчета данных. В начале (стр. 944) они цитируют McCullaugh и Nelder (1989), утверждая, что отрицательная биномиальная регрессия непопулярна и имеет проблематичную каноническую связь. Я нашел упомянутый отрывок, и он...

31
Логистическая регрессия: Scikit Learn против Statsmodels

Я пытаюсь понять, почему вывод из логистической регрессии этих двух библиотек дает разные результаты. Я использую набор данных из учебника UCLA idre , прогнозирование admitна основе gre, gpaи rank. rankрассматривается как категориальная переменная, поэтому сначала она преобразуется в фиктивную...

30
Как вывести оценку наименьших квадратов для множественной линейной регрессии?

В случае простой линейной регрессии вы можете получить оценку наименьших квадратов , что вам не нужно знать чтобы оценитьβ 1 = Σ ( х я - ˉ х ) ( у я - ˉ у )y=β0+β1xy=β0+β1xy=\beta_0+\beta_1xβ 0 β 1β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar...

30
Когда регуляризация L1 будет работать лучше, чем L2, и наоборот?

Примечание: я знаю, что у L1 есть свойство выбора функции. Я пытаюсь понять, какой из них выбрать, когда выбор функции совершенно не имеет значения. Как решить, какую регуляризацию (L1 или L2) использовать? Каковы плюсы и минусы каждой регуляризации L1 / L2? Рекомендовано ли вначале делать выбор...

30
В чем разница между логистической регрессией и персептроном?

Я собираюсь через лекцию Эндрю Нг ноту на Machine Learning. Примечания знакомят нас с логистической регрессией, а затем с персептроном. При описании Перцептрона в заметках говорится, что мы просто изменили определение пороговой функции, используемой для логистической регрессии. После этого мы можем...

30
Имеет ли регрессия Кокса основное распределение Пуассона?

Наша небольшая команда провела дискуссию и застряла. Кто-нибудь знает, имеет ли регрессия Кокса основное распределение Пуассона. У нас была дискуссия о том, что, возможно, регрессия Кокса с постоянным временем риска будет иметь сходство с регрессией Пуассона с устойчивой дисперсией. Любые...

30
Каковы предположения об отрицательной биномиальной регрессии?

Этот вопрос был перенесен из Математического стека обмена, потому что на него можно ответить по перекрестной проверке. Мигрировал 6 лет назад . Я работаю с большим набором данных (конфиденциально, поэтому я не могу поделиться слишком много), и пришел к выводу, что отрицательный биномиальный...

29
Псевдо-R2 Макфаддена Интерпретация

У меня есть бинарная модель логистической регрессии с псевдо R-квадратом Макфаддена 0,192 с зависимой переменной, называемой платежом (1 = оплата и 0 = нет оплаты). Какова интерпретация этого псевдо R-квадрата? Является ли это относительным сравнением для вложенных моделей (например, модель с 6...

29
Как работать с иерархическими / вложенными данными в машинном обучении

Я объясню мою проблему на примере. Предположим, вы хотите предсказать доход человека с учетом некоторых атрибутов: {Возраст, Пол, Страна, Регион, Город}. У вас есть тренировочный набор данных, как так train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4,...

29
Как выполнить ортогональную регрессию (наименьших квадратов) с помощью PCA?

Я всегда использую lm()в R для выполнения линейной регрессии yyy на xxx . Эта функция возвращает коэффициент ββ\beta такой, что y=βx.y=βx.y = \beta x. Сегодня я узнал об общих наименьших квадратах, и эту princomp()функцию (анализ основных компонентов, PCA) можно использовать для ее выполнения. Это...