Вопросы с тегом «least-squares»

16
Меры остаточной гетероскедастичности

Эта ссылка на Википедию перечисляет ряд методов для определения гетероскедастичности остатков МНК. Я хотел бы узнать, какой практический метод более эффективен в обнаружении областей, затронутых гетероскедастичностью. Например, здесь видно, что центральная область на графике OLS «Остаточные и...

16
Обратная регрессия гребня: с учетом матрицы отклика и коэффициентов регрессии, найти подходящих предикторов

Рассмотрим стандартную задачу регрессии OLS \newcommand{\Y}{\mathbf Y}\newcommand{\X}{\mathbf X}\newcommand{\B}{\boldsymbol\beta}\DeclareMathOperator*{argmin}{argmin} : У меня есть матрицы YY\Y и XX\X и я хочу найти ββ\B чтобы минимизировать L=∥Y−Xβ∥2.L=‖Y−Xβ‖2.L=\|\Y-\X\B\|^2. Решение дается...

16
Определение и сходимость итеративно переоцененных наименьших квадратов

Я использовал итеративно переоцененные наименьшие квадраты (IRLS), чтобы минимизировать функции следующей формы, J(m)=∑Ni=1ρ(|xi−m|)J(m)=∑i=1Nρ(|xi−m|)J(m) = \sum_{i=1}^{N} \rho \left(\left| x_i - m \right|\right) где NNN - количество экземпляров xi∈Rxi∈Rx_i \in \mathbb{R} , m∈Rm∈Rm \in \mathbb{R}...

16
Вопрос о том, как нормализовать коэффициент регрессии

Не уверен, что слово «нормализация» - это правильное слово, но я постараюсь сделать все возможное, чтобы проиллюстрировать то, что я пытаюсь спросить. Здесь используется оценка наименьших квадратов. Предположим, у вас есть y = β 0 + β 1 x 1y=β0+β1x1y=\beta_0+\beta_1x_1 , вы можете центрировать его...

15
Другие несмещенные оценки, чем СИНИЙ (решение OLS) для линейных моделей

Для линейной модели решение OLS обеспечивает наилучшую линейную несмещенную оценку параметров. Конечно, мы можем обменять смещение на более низкую дисперсию, например, на регрессию гребня. Но мой вопрос касается отсутствия предвзятости. Существуют ли какие-либо другие оценщики, которые обычно...

15
Почему эта регрессия НЕ терпит неудачу из-за совершенной мультиколлинеарности, хотя одна переменная является линейной комбинацией других?

Сегодня я играл с небольшим набором данных и выполнил простую регрессию OLS, которую я ожидал потерпеть неудачу из-за совершенной мультиколлинеарности. Однако это не так. Это подразумевает, что мое понимание мультиколлинеарности неверно. Мой вопрос: где я не прав? Я думаю, что могу показать, что...

15
Влияние функций и МНК

Я пытаюсь понять, как работают функции влияния. Может ли кто-то объяснить в контексте простой регрессии OLS yi=α+β⋅xi+εiyi=α+β⋅xi+εi\begin{equation} y_i = \alpha + \beta \cdot x_i + \varepsilon_i \end{equation} где я хочу функцию влияния для...

15
Полезность теоремы Фриша-Во

Я должен преподавать теорему Фриша Во в эконометрике, которую я не изучал. Я понял математику, стоящую за этим, и я надеюсь, что идея «коэффициент, который вы получаете для определенного коэффициента из множественной линейной модели, равен коэффициенту простой регрессионной модели, если вы«...

15
У меня есть линия наилучшего соответствия. Мне нужны данные, которые не изменят мою линию наилучшего соответствия

Я делаю презентацию о примерочных линиях. У меня есть простая линейная функция, . Я пытаюсь получить разбросанные точки данных, которые я могу поместить в график рассеяния, чтобы моя линия лучше соответствовала тому же уравнению.y=1x+by=1x+by=1x+b Я хотел бы изучить эту технику в R или Excel - в...

15
Регрессия в настройке

Я пытаюсь понять, следует ли использовать регрессию гребня , LASSO , регрессию главных компонентов (PCR) или частичные наименьшие квадраты (PLS) в ситуации, когда имеется большое количество переменных / признаков ( ) и меньшее количество выборок ( ) и моя цель - прогноз.ппpп < рN<пn nр >...

14
В чем заключается «механическая» разница между множественной линейной регрессией с лагами и временными рядами?

Я выпускник факультета бизнеса и экономики, который в настоящее время учится на степень магистра в области инженерии данных. Во время изучения линейной регрессии (LR), а затем анализа временных рядов (TS) у меня возник вопрос. Зачем создавать новый метод, т. Е. Временные ряды (ARIMA), вместо...

14
Смещение к натуральным числам в случае наименьших квадратов

Почему мы стремимся минимизировать, x^2а не минимизировать |x|^1.95или |x|^2.05. Есть ли причины, по которым число должно быть ровно двумя, или это просто соглашение, которое имеет преимущество в упрощении...

14
Как NumPy решает наименьшие квадраты для недоопределенных систем?

Скажем, у нас есть X формы (2, 5) и y формы (2,) Это работает: np.linalg.lstsq(X, y) Мы ожидаем, что это сработает, только если X имеет форму (N, 5), где N> = 5. Но почему и как? Мы получаем 5 весов, как и ожидалось, но как решить эту проблему? Разве у нас не 2 уравнения и 5 неизвестных? Как...

14
Почему ? (Одна переменная линейная регрессия)

Примечание. = сумма квадратов, = сумма квадратов ошибок и = регрессионная сумма квадратов. Уравнение в названии часто записывается как:SSTSSTSSTSSESSESSESSRSSRSSR ∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2∑i=1n(yi−y¯)2=∑i=1n(yi−y^i)2+∑i=1n(y^i−y¯)2\sum_{i=1}^n (y_i-\bar y)^2=\sum_{i=1}^n (y_i-\hat...

14
Линейная регрессия, когда Y ограничен и дискретен

Вопрос прост: уместно ли использовать линейную регрессию, когда Y ограничен и дискретен (например, оценка теста 1 ~ 100, некоторое заранее определенное ранжирование 1 ~ 17)? В этом случае «нехорошо» использовать линейную регрессию или это совершенно...

14
Предположения для получения оценки МНК

Может кто-нибудь кратко объяснить мне, почему каждое из шести предположений необходимо для вычисления оценки OLS? Я обнаружил только мультиколлинеарность: если она существует, мы не можем инвертировать (X'X) матрицу и, в свою очередь, оценить общую оценку. А как насчет других (например, линейность,...

14
Выполните линейную регрессию, но заставьте решение пройти через определенные точки данных

Я знаю, как выполнить линейную регрессию на множестве точек. То есть я знаю, как подогнать полином по своему выбору для данного набора данных (в смысле LSE). Однако чего я не знаю, так это как заставить мое решение пройти через некоторые конкретные пункты моего выбора. Я видел, как это было сделано...

13
Модельные предположения о регрессии частичных наименьших квадратов (PLS)

Я пытаюсь найти информацию относительно предположений о регрессии PLS (одиночный ). Я особенно заинтересован в сравнении допущений PLS с регрессией OLS. YYy Я прочитал / пролистал много литературы по теме PLS; работы Вольда (Сванте и Германа), Абди и многих других, но не нашли удовлетворительного...

13
Использование MLE против OLS

Когда предпочтительнее использовать оценку максимального правдоподобия вместо обычных наименьших квадратов? Каковы сильные и слабые стороны каждого? Я пытаюсь собрать практические знания о том, где использовать каждый в общих...

13
Линейная регрессия: есть ли ненормальное распределение, дающее идентичность OLS и MLE?

Этот вопрос вдохновлен долгим обсуждением в комментариях здесь: Как линейная регрессия использует нормальное распределение? В обычной модели линейной регрессии для простоты здесь написано только с одним предиктором: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i где xixix_i -...