Я часто слышал эту фразу, но никогда полностью не понимал, что это значит. Фраза "хорошие свойства для частых пользователей" имеет в настоящее время ~ 2750 просмотров на Google, 536 на scholar.google.com и 4 на stats.stackexchange.com .
Самое близкое, что я нашел к четкому определению, прибывает из заключительного слайда в этой презентации Стэнфордского университета , которая заявляет
[T] Смысл сообщения о 95% доверительных интервалах заключается в том, что вы «ловите» истинный параметр в 95% заявлений, которые вы делаете, даже при разных проблемах оценки. Это определяющая характеристика процедур оценки с хорошими частыми свойствами: они выдерживают проверку при многократном использовании.
Размышляя немного об этом, я предполагаю, что фраза «хорошие частые свойства» подразумевает некоторую оценку байесовского метода и, в частности, байесовского метода интервального построения. Я понимаю, что байесовские интервалы должны содержать истинное значение параметра с вероятностью . Частотные интервалы должны быть построены так, что если бы процесс построения интервалов многократно повторялся о p ∗ 100 %из интервалов будет содержать истинное значение параметра. Байесовские интервалы, как правило, не дают никаких обещаний о том, какой процент интервалов будет покрывать истинное значение параметра. Тем не менее, некоторые байесовской методы также случиться , чтобы иметь свойство, если повторяется много раз , они охватывают истинное значение о времени. Когда у них есть это свойство, мы говорим, что у них «хорошие частые свойства».
Это правильно? Я полагаю, что в этом должно быть что-то большее, поскольку эта фраза относится к хорошим свойствам для часто используемых , а не к хорошим свойствам для часто используемых .
источник
Ответы:
Хитрость в хороших свойствах часто встречающихся заключается в том, что они являются свойствами процедуры, а не свойствами конкретного результата или вывода. Хорошая частотная процедура дает правильные выводы для определенной доли случаев в долгосрочной перспективе, но хорошая байесовская процедура часто дает правильные выводы в каждом конкретном случае.
Например, рассмотрим байесовскую процедуру, которая является «хорошей» в общем смысле, поскольку она обеспечивает апостериорное распределение вероятности или вероятный интервал, который правильно представляет комбинацию свидетельства (функции правдоподобия) с предшествующим распределением вероятности. Если предыдущий содержит точную информацию (скажем, а не пустое мнение или некоторую форму неинформативного априора), то последующий или интервал может привести к лучшему выводу, чем результат, получаемый от тех же данных. Лучше в том смысле, что это приведет к более точному выводу об этом конкретном случае или к более узкому интервалу оценки, поскольку в процедуре используется настраиваемая предварительная информация, содержащая точную информацию. В долгосрочной перспективе процент охвата интервалов и правильность выводов зависит от качества каждого предшествующего.
Обратите внимание, что в процедуре не указано, каким образом должен быть получен априор, и поэтому долгосрочный учет эффективности, предположительно, будет предполагать любой старый априор, а не специально разработанный априор для каждого случая.
Байесовская процедура может иметь хорошие частые свойства. Например, во многих случаях байесовская процедура с неинформативным предварительным описанием, предоставленным рецептом, будет иметь довольно хорошие или превосходные частые свойства. Эти хорошие свойства будут скорее случайностью, чем конструктивной особенностью, и будут прямым следствием такой процедуры, дающей интервалы, аналогичные частым процедурам.
Таким образом, байесовская процедура может иметь превосходные логические свойства в отдельном эксперименте, но в долгосрочной перспективе она обладает плохими частыми свойствами. Эквивалентно, частые процедуры с хорошими долгосрочными частыми свойствами часто имеют плохую производительность в случае отдельных экспериментов.
источник
Я бы ответил, что ваш анализ верен. Чтобы дать еще несколько идей, я бы назвал соответствующие приоры.
Соответствующие априорные значения обычно являются априорными, разработанными для построения байесовских моделей с частым свойством. В частности, они определены так, чтобы полученные интервалы hpd удовлетворяли частому охвату доверительного интервала (таким образом, 95% из 95% hpd содержат истинные значения в долгосрочной перспективе). Обратите внимание, что в 1d существуют аналитические решения: приоры Джеффриса совпадают. В более высоком измерении это не является необходимым случаем (насколько мне известно, нет никакого результата, доказывающего, что это никогда не имеет место).
На практике этот принцип сопоставления иногда также применяется для настройки значения некоторых параметров модели: наземные данные истинности используются для оптимизации этих параметров в том смысле, что их значения максимизируют частый охват результирующих достоверных интервалов для интересующего параметра , Исходя из моего собственного опыта, это может быть очень тонкой задачей.
источник
Теперь, чтобы ответить на ваш вопрос: нет, это не подразумевает какую-либо оценку байесовского метода. Пропуская нюансы и сосредотачиваясь на процедуре оценки, чтобы упростить ее: частота в статистике - это идея оценки неизвестного фиксированного количества или проверки гипотезы и оценки такой процедуры на основе гипотетического ее повторения. Вы можете принять много критериев для оценки процедуры. То, что делает его критерием частоты, заключается в том, что каждый заботится о том, что произойдет, если он будет повторять одну и ту же процедуру снова и снова. Если вы делаете это, вы заботитесь о частых свойствах. Другими словами: «Каковы частые свойства?» означает «что произойдет, если мы повторим процедуру снова и снова?» Теперь, что делает такие частые свойства хорошимиэто еще один слой критериев. Наиболее распространенными частыми свойствами, которые считаются хорошими свойствами, являются согласованность (при оценке, если вы продолжите выборку, оценщик будет сходиться к фиксированному значению, которое вы оцениваете), эффективность (если вы продолжите выборку, дисперсия оценки снизится до нуля). , так что вы будете все более и более точным), вероятность покрытия(во многих повторениях процедуры 95% доверительный интервал будет содержать истинное значение 95% времени). Первые два называются свойствами больших выборок, третье - свойство Неймана - действительно частое в том смысле, что не обязательно использовать асимптотические результаты. Таким образом, в сумме, в рамках частоты, есть истинная и неизвестная ценность. Вы оцениваете это, и вы всегда (за исключением редкого счастливого случая) ошибаетесь в оценке, но вы пытаетесь спасти себя, требуя, чтобы по крайней мере при гипотетически неопределенном повторении вашей оценки вы были бы все меньше и меньше ошибаться илиВы знаете, что были бы правы определенное количество раз. Я не буду обсуждать, имеет ли это смысл или нет, или дополнительные предположения, необходимые для его обоснования, учитывая, что это были не ваши вопросы. Концептуально это то, к чему относятся частые свойства , и что в общем контексте означает хорошее .
В заключение я укажу вам эту статью, чтобы вы сами судили, имеет ли смысл и что это означает, что байесовская процедура имеет хорошие частые свойства (вы найдете больше ссылок там):
источник