Теорема Гаусса-Маркова говорит нам, что оценка OLS является наилучшей линейной несмещенной оценкой для модели линейной регрессии.
Но предположим, что меня не волнует линейность и непредвзятость. Тогда есть ли какая-либо другая (возможно, нелинейная / смещенная) оценка для модели линейной регрессии, которая наиболее эффективна в предположениях Гаусса-Маркова или в некотором другом общем наборе предположений?
Конечно, есть один стандартный результат: сам OLS является наилучшей несмещенной оценкой, если в дополнение к предположениям Гаусса-Маркова мы также предполагаем, что ошибки нормально распределены. Для некоторого другого конкретного распределения ошибок я мог бы вычислить соответствующую оценку максимального правдоподобия.
Но мне было интересно, есть ли какая-нибудь оценка, которая лучше, чем OLS, в некотором относительно общем наборе обстоятельств?
источник
Я не знаю, в порядке ли вы с оценкой Байеса? Если да, то в зависимости от функции потерь вы можете получить разные оценки Байеса. Теорема Блекуэлла утверждает, что байесовские оценки никогда не бывают беспристрастными. Теоретический аргумент решения гласит, что каждое допустимое правило ((или любое другое правило, с которым оно сравнивается, есть значение параметра, для которого риск настоящего правила (строго) меньше, чем риск правила, против которого оно сравниваемый)) является (обобщенным) правилом Байеса.
Оценки Джеймса-Стейна - это другой класс оценок (которые могут быть получены асимптотически байесовскими методами), которые во многих случаях лучше, чем OLS.
OLS может быть недопустимым во многих ситуациях, и в качестве примера можно привести оценку Джеймса-Стейна. (также называется парадоксом Штейна).
источник
Есть хорошая обзорная статья Кей и Эльдара о предвзятых оценках с целью поиска оценок с минимальной среднеквадратичной ошибкой.
источник