Предположим , что у меня есть положительные параметры для оценки и их соответствующие непредвзятые оценки , полученные с помощью оценок , то есть , и так далее.
Я хотел бы оценить используя оценки. Очевидно, что наивный оценщик смещен ниже как
Предположим, что у меня также есть ковариационная матрица соответствующих оценщиков . Можно ли получить несмещенную (или менее предвзятую) оценку минимума, используя данные оценки и ковариационную матрицу?
unbiased-estimator
estimators
minimum
Кагдас Озгенц
источник
источник
Ответы:
У меня нет четкого ответа о существовании объективной оценки. Тем не менее, с точки зрения ошибки оценки, оценка является сложной проблемой в общем.min(μ1,…,μn)
Например, пусть и . Пусть будет целевым значением, а является оценкой . Если мы используем «наивный» оценщик где , тогда ошибка оценки ограничена сверху до постоянного. (Обратите внимание, что ошибка оценки для каждого равна ). Конечно, еслиY1,…,YN∼N(μ,σ2I) μ=(μ1,…,μn) θ=miniμi θ^ θ θ^=mini(Y¯i) Yi¯=1N∑Nj=1Yi,j L2
Поэтому наивный оценщик минимаксно оптимален с точностью до константы, и в этом смысле нет лучшей оценки .θ
источник
РЕДАКТИРОВАТЬ: Следующий ответ отвечает на другой вопрос, чем тот, который был задан - он оформлен так, как будто считается случайным, но не работает, когда считается фиксированным, что, вероятно, и имел в виду OP. Если исправлено, у меня нет лучшего ответа, чемμ μ μ min(μ^1,...,μ^n)
Если мы рассматриваем только оценки для среднего значения и ковариации, мы можем рассматривать как одну выборку из многомерного нормального распределения. Простой способ получить оценку минимума состоит в том, чтобы затем извлечь большое количество выборок из , вычислить минимум каждой выборки и затем взять среднее из этих минимумов.(μ1,...,μn) MVN(μ^,Σ)
Описанную выше процедуру и ее ограничения можно понять в байесовских терминах - взяв обозначение из Википедии о MVN , если - известная ковариантность оценок, и у нас есть одно наблюдение, совместное апостериорное распределение - где и возникают из предшествующего, где перед наблюдением любых данных мы берем предшествующий ). Так как вы, вероятно, не хотите ставить априоры на , мы можем принять предел как , что приведет к плоскому предшествующему, а задний станетΣ μ∼MVN(μ^+mλ01+m,1n+mΣ) λ0 m μ∼MVN(λ0,m−1Σ μ m→0 μ∼MVN(μ^,Σ) , Тем не менее, принимая во внимание фиксированный предшествующий уровень, мы неявно делаем предположение, что элементы сильно отличаются (если все действительные числа одинаково вероятны, получение одинаковых значений маловероятно).μ
А быстрое моделирование показывает , что оценка этой процедуры несколько завышенной , когда элементы отличаются много и недооценивает , когда элементы подобны. Можно утверждать, что без каких-либо предварительных знаний это правильное поведение. Если вы готовы указать хотя бы некоторую предварительную информацию (например, ), результаты могут стать немного лучше для вашего варианта использования.min(μ) μ min(μ) m=0.1
Если вы готовы взять на себя большую структуру, вы можете выбрать лучший дистрибутив, чем нормальный многовариантный. Также может иметь смысл использовать Stan или другой сэмплер MCMC, чтобы в первую очередь соответствовать оценкам . Это даст вам набор выборок которые отражают неопределенность в самих оценщиках, включая их ковариационную структуру (возможно, более богатую, чем может предоставить MVN). Еще раз вы можете вычислить минимум для каждой выборки, чтобы получить апостериорное распределение по минимумам, и взять среднее значение этого распределения, если вам нужна точечная оценка.μ (μ1,...,μn)
источник