Предположим, у меня есть два оценщика и которые являются согласованными оценками одного и того же параметра и такого, что с в смысле psd. Таким образом, асимптотически более эффективен, чем . Эти две оценки основаны на различных функциях потерь. β 2β0√V1≤V2 β 1 β 2
Теперь я хочу найти некоторые методы сжатия, чтобы улучшить свойства конечных выборок моих оценок.
Предположим, что я нашел метод сжатия, который улучшает оценку в конечном образце и дает мне значение MSE, равное . Означает ли это, что я могу найти подходящую технику сжатия для применения к , которая даст мне MSE не больше, чем ? γ 2 β 1
Другими словами, если усадка применяется разумно, всегда ли она работает лучше для более эффективных оценщиков?
Это интересный вопрос, в котором я хочу вначале указать на некоторые основные моменты.
Фундаментально, можно улучшить оценку в определенной структуре, такой как беспристрастный класс оценок. Однако, как вы указали, различные функции потерь усложняют ситуацию, поскольку одна функция потерь может минимизировать квадратичные потери, а другая минимизирует энтропию. Более того, использование слова «всегда» очень сложно, поскольку, если один оценщик является лучшим в классе, вы не можете претендовать на лучшую оценку, логически говоря.
Для простого примера (в той же самой структуре), давайте две оценки, а именно, Мост ( регрессия с нормы) и Лассо (штраф штрафовал за первую норму вероятности) и разреженный набор параметров, а именно , линейная модель , нормальность члена ошибки, , известная , квадратичная функция потерь (ошибки наименьших квадратов) и независимость ковариат по . Давайте выберем для для первой оценки и для второй оценки. Тогда вы можете улучшить оценки, выбрав β y = x β + e e ∼ N ( 0 , σ 2 < ∞ ) σ x l p p = 3 p = 2 p → 1lp β y=xβ+e e∼N(0,σ2<∞) σ x lp p=3 p=2 p→1 что в итоге дает лучшую оценку с меньшей дисперсией. Тогда в этом примере есть шанс улучшить оценку.
Итак, мой ответ на ваш вопрос - да, учитывая, что вы принимаете ту же группу оценок и ту же функцию потерь, а также предположения.
источник