Что значит иметь хорошие частые свойства?

12

Я часто слышал эту фразу, но никогда полностью не понимал, что это значит. Фраза "хорошие свойства для частых пользователей" имеет в настоящее время ~ 2750 просмотров на Google, 536 на scholar.google.com и 4 на stats.stackexchange.com .

Самое близкое, что я нашел к четкому определению, прибывает из заключительного слайда в этой презентации Стэнфордского университета , которая заявляет

[T] Смысл сообщения о 95% доверительных интервалах заключается в том, что вы «ловите» истинный параметр в 95% заявлений, которые вы делаете, даже при разных проблемах оценки. Это определяющая характеристика процедур оценки с хорошими частыми свойствами: они выдерживают проверку при многократном использовании.

Размышляя немного об этом, я предполагаю, что фраза «хорошие частые свойства» подразумевает некоторую оценку байесовского метода и, в частности, байесовского метода интервального построения. Я понимаю, что байесовские интервалы должны содержать истинное значение параметра с вероятностью . Частотные интервалы должны быть построены так, что если бы процесс построения интервалов многократно повторялся о p 100 %пп*100%из интервалов будет содержать истинное значение параметра. Байесовские интервалы, как правило, не дают никаких обещаний о том, какой процент интервалов будет покрывать истинное значение параметра. Тем не менее, некоторые байесовской методы также случиться , чтобы иметь свойство, если повторяется много раз , они охватывают истинное значение о времени. Когда у них есть это свойство, мы говорим, что у них «хорошие частые свойства».п*100%

Это правильно? Я полагаю, что в этом должно быть что-то большее, поскольку эта фраза относится к хорошим свойствам для часто используемых , а не к хорошим свойствам для часто используемых .

user1205901 - Восстановить Монику
источник
1
Мне очень нравится, как вы продумали этот вопрос. В первые дни сэр Гарольд Джеффрис пытался построить байесовские апостериорные распределения, которые вели себя как функции правдоподобия и, следовательно, обладали хорошими частотными свойствами. Таким образом, это равносильно построению «равномерного» предварительного распределения. Идея состоит в том, что использование такого априорного средства априорное является нейтральным и не влияет на вывод. Так что это относится не только к тому, чтобы достоверные интервалы выглядели как доверительные интервалы. Но у Джеффриса были некоторые неприятности, потому что были случаи, когда «униформа» не была правильной.
Майкл Р. Черник
1
Неправильное означает, что предыдущая плотность не интегрируется с 1. Кажется, что Джеффрис полагал, что байесовский метод должен быть оправдан, соглашаясь с методом частых. Байесовцы в конечном итоге отвергли это понятие, потому что ценность подхода, который они утверждают, состоит в том, что существует предварительная информация, которая влияет на вывод, и поэтому они предпочитают использовать надлежащие «информативные» априоры.
Майкл Р. Черник
2
@MichaelChernick: можете ли вы дать точную ссылку о Джеффрисе, который ищет частые свойства для оценок Байеса? Я никогда не слышал об этой истории. И я также сомневаюсь, что Джеффрис вообще беспокоился об использовании неподходящих приоров, они по всей теории вероятностей .
Сиань
Я люблю этот вопрос!
Алексис
1
@ Сиань на самом деле, для бета-биномиальной модели это предшествующая Холдейну (что является неправильным) та, которая приводит к оценке частоты, а не предварительная оценка Джеффриса (которая является правильной в данном случае). Я также никогда не слышал, чтобы Джеффрис искал хорошие частые свойства: я думал, что он ищет объективные приоры, и под объективным он подразумевал инвариант при репараметризации.
DeltaIV

Ответы:

3

Хитрость в хороших свойствах часто встречающихся заключается в том, что они являются свойствами процедуры, а не свойствами конкретного результата или вывода. Хорошая частотная процедура дает правильные выводы для определенной доли случаев в долгосрочной перспективе, но хорошая байесовская процедура часто дает правильные выводы в каждом конкретном случае.

Например, рассмотрим байесовскую процедуру, которая является «хорошей» в общем смысле, поскольку она обеспечивает апостериорное распределение вероятности или вероятный интервал, который правильно представляет комбинацию свидетельства (функции правдоподобия) с предшествующим распределением вероятности. Если предыдущий содержит точную информацию (скажем, а не пустое мнение или некоторую форму неинформативного априора), то последующий или интервал может привести к лучшему выводу, чем результат, получаемый от тех же данных. Лучше в том смысле, что это приведет к более точному выводу об этом конкретном случае или к более узкому интервалу оценки, поскольку в процедуре используется настраиваемая предварительная информация, содержащая точную информацию. В долгосрочной перспективе процент охвата интервалов и правильность выводов зависит от качества каждого предшествующего.

Обратите внимание, что в процедуре не указано, каким образом должен быть получен априор, и поэтому долгосрочный учет эффективности, предположительно, будет предполагать любой старый априор, а не специально разработанный априор для каждого случая.

Байесовская процедура может иметь хорошие частые свойства. Например, во многих случаях байесовская процедура с неинформативным предварительным описанием, предоставленным рецептом, будет иметь довольно хорошие или превосходные частые свойства. Эти хорошие свойства будут скорее случайностью, чем конструктивной особенностью, и будут прямым следствием такой процедуры, дающей интервалы, аналогичные частым процедурам.

Таким образом, байесовская процедура может иметь превосходные логические свойства в отдельном эксперименте, но в долгосрочной перспективе она обладает плохими частыми свойствами. Эквивалентно, частые процедуры с хорошими долгосрочными частыми свойствами часто имеют плохую производительность в случае отдельных экспериментов.

Майкл Лью
источник
2
Я не следую За исключением эмпирических байесовских процедур, во всех байесовских процедурах, которые я видел, предыдущий выбирается независимо от данных. Таким образом, при применении такой процедуры к множеству наборов данных, поступающих из одного и того же процесса генерирования данных (это структура для часто используемых), байесовский будет использовать одну и ту же функцию правдоподобия (процесс генерирования данных одинаков) и тот же априор (приоритет независимо от данных в большинстве байесовских процедур). Конечно, поскольку данные меняются каждый раз, значение вероятности меняется, но его форма одинакова. Теперь, если каждый человек [1/2]
DeltaIV
2
[2/2] оценка является более точной, как вся процедура может быть менее точной? Это возможно только в том случае, если байесовская оценка не всегда является более точной. Тем не менее, поскольку предыдущий не настроен на наблюдаемые данные, я не уверен, что делает его более или менее точным для каждого отдельного случая и / или «в среднем».
DeltaIV
@ DeltaV Я думаю, что вы имеете дело с неправильным набором ссылок. Частые свойства процедуры относятся к долгосрочному выполнению процедуры, применяемой во всех новых случаях, а не только к повторениям конкретного эксперимента. Вот почему процедуры доверительного интервала для биномиальных пропорций должны работать для всех значений параметра, а не только для значения, относящегося к любому конкретному случаю, где используется процедура. Этот тип «долгосрочного запуска» означает, что настроенный априор, соответствующий рассматриваемому случаю, не подходит для долгосрочного запуска.
Майкл Лью
Вы правы в том, что процедура доверительной вероятности должна иметь номинальное покрытие для всех значений неизвестного параметра. Это было четко указано Newman & Pearson, и сегодня об этом часто забывают. Однако, когда вы выбираете предыдущее, вы не знаете, какое значение является «истинным» параметром. У вас есть только ваш образец, и предыдущий должен быть независимым от образца. Таким образом, я до сих пор не вижу ясно, как вы могли бы настроить априор на основе образца. Можете ли вы сделать практический пример?
DeltaIV
@DeltaIV Если я знаю, что текущий интересующий параметр был оценен в предыдущем исследовании, тогда я могу сформировать информативный априор на основе этой оценки. Этот предварительный вариант будет подходящим для этого текущего анализа, но нет эквивалентного соответствующего информационного предварительного, доступного для условного набора применений метода в долгосрочной перспективе. Таким образом, анализ может иметь гораздо лучшие свойства в изолированном реальном случае, чем он казался бы в частом долгосрочном периоде.
Майкл Лью
2

Я бы ответил, что ваш анализ верен. Чтобы дать еще несколько идей, я бы назвал соответствующие приоры.

Соответствующие априорные значения обычно являются априорными, разработанными для построения байесовских моделей с частым свойством. В частности, они определены так, чтобы полученные интервалы hpd удовлетворяли частому охвату доверительного интервала (таким образом, 95% из 95% hpd содержат истинные значения в долгосрочной перспективе). Обратите внимание, что в 1d существуют аналитические решения: приоры Джеффриса совпадают. В более высоком измерении это не является необходимым случаем (насколько мне известно, нет никакого результата, доказывающего, что это никогда не имеет место).

На практике этот принцип сопоставления иногда также применяется для настройки значения некоторых параметров модели: наземные данные истинности используются для оптимизации этих параметров в том смысле, что их значения максимизируют частый охват результирующих достоверных интервалов для интересующего параметра , Исходя из моего собственного опыта, это может быть очень тонкой задачей.

peuhp
источник
0

п

Теперь, чтобы ответить на ваш вопрос: нет, это не подразумевает какую-либо оценку байесовского метода. Пропуская нюансы и сосредотачиваясь на процедуре оценки, чтобы упростить ее: частота в статистике - это идея оценки неизвестного фиксированного количества или проверки гипотезы и оценки такой процедуры на основе гипотетического ее повторения. Вы можете принять много критериев для оценки процедуры. То, что делает его критерием частоты, заключается в том, что каждый заботится о том, что произойдет, если он будет повторять одну и ту же процедуру снова и снова. Если вы делаете это, вы заботитесь о частых свойствах. Другими словами: «Каковы частые свойства?» означает «что произойдет, если мы повторим процедуру снова и снова?» Теперь, что делает такие частые свойства хорошимиэто еще один слой критериев. Наиболее распространенными частыми свойствами, которые считаются хорошими свойствами, являются согласованность (при оценке, если вы продолжите выборку, оценщик будет сходиться к фиксированному значению, которое вы оцениваете), эффективность (если вы продолжите выборку, дисперсия оценки снизится до нуля). , так что вы будете все более и более точным), вероятность покрытия(во многих повторениях процедуры 95% доверительный интервал будет содержать истинное значение 95% времени). Первые два называются свойствами больших выборок, третье - свойство Неймана - действительно частое в том смысле, что не обязательно использовать асимптотические результаты. Таким образом, в сумме, в рамках частоты, есть истинная и неизвестная ценность. Вы оцениваете это, и вы всегда (за исключением редкого счастливого случая) ошибаетесь в оценке, но вы пытаетесь спасти себя, требуя, чтобы по крайней мере при гипотетически неопределенном повторении вашей оценки вы были бы все меньше и меньше ошибаться илиВы знаете, что были бы правы определенное количество раз. Я не буду обсуждать, имеет ли это смысл или нет, или дополнительные предположения, необходимые для его обоснования, учитывая, что это были не ваши вопросы. Концептуально это то, к чему относятся частые свойства , и что в общем контексте означает хорошее .

В заключение я укажу вам эту статью, чтобы вы сами судили, имеет ли смысл и что это означает, что байесовская процедура имеет хорошие частые свойства (вы найдете больше ссылок там):

  • Литтл Р. и др. (2011). Калиброванный байес, для статистики в целом и отсутствующих данных в частности. Статистическая наука, 26 (2), 162–174.
Диого
источник