Позвольте мне завершить ответ дзен. Мне не очень нравится понятие «представление невежества». Важной вещью является не Джефрис до, а Джеффрис зад . Эта апостериорная задача призвана максимально полно отразить информацию о параметрах, представленных данными. Свойство инвариантности естественно требуется для двух следующих пунктов. Рассмотрим, например, биномиальную модель с неизвестным параметром пропорции и параметром шансов ψ = θθ .ψ = θ1 - θ
Апостериорный Джеффрис на отражает как можно лучше информацию о θ, приведенную данными. Между θ и ψ существует взаимно-однозначное соответствие . Затем, преобразование аппроксимации Джеффри на θ в апостериорный на ψ (с помощью обычной формулы изменения переменных) должно дать распределение, максимально отражающее информацию о ψ . Таким образом, это распределение должно быть задним числом Джеффриса около ψ . Это свойство инвариантности.θθθψθψψψ
Важным моментом при подведении итогов статистического анализа является научное общение . Представьте, что вы даете Джеффриса на научному коллеге. Но он / она интересуется ψ, а не θ . Тогда это не проблема со свойством инвариантности: он / она просто должен применить формулу изменения переменных.θψθ
Ах, это проясняет немного. Но есть ли интуитивно понятная причина, почему апостериорный для параметра odds должен быть таким же, как апостериорный для параметра пропорции? Это кажется мне неестественным.
tskuzzy
Это не то же самое! Один индуцируется другим формулой замены переменных. Между этими двумя параметрами существует взаимно-однозначное соответствие. Тогда апостериорное распределение по одному из этих параметров должно индуцировать апостериорное распределение по другому.
Стефан Лоран
2
(+1) Стефан. ОП, кажется, все еще смущен, когда говорит «... должно быть то же самое ...». Два апостериорные не «то же самое», что происходит , является то , что, например, в примере Stephane, вы есть , что ; если у вас нет такой согласованности с использованием априорных значений по умолчанию (вычисленных), то ваши априоры немного сумасшедшие. п{ 1 / 3 & le ; & thetas ; & le ; 2 / 3 | Х= x } = P{ 1 / 2 & le ; г | & le ; 2 | Х= х }
Дзен
1
Я думаю, что в этом посте отсутствует то, что, когда в данных о параметре много информации, конкретное ранее использованное значение не имеет большого значения. Например, биноминальная пропорция, независимо от того, используем ли мы униформу, джефри или халдейн, не имеет большого значения, если апостериор не очень широк. В этом случае это своего рода академический аргумент в отношении того, какой предварительный подход является «правильным», потому что никакие значимые выводы не могут быть сделаны в любом случае. Реальная ценность неинформативного априора заключается в нескольких измерениях, но эта проблема не была решена - Джефрис априор здесь плох.
вероятностная
3
Эта теория неполна и зависит от порядка параметров, выбора компактной области и функции правдоподобия. Так, например, он не подчиняется принципу вероятности. Кроме того, это трудно применить к независимым данным. Кроме того, теория Бернардо является полной только для задач с 1-м параметром. Это, вероятно, лучший метод, доступный в настоящее время. Хорошим конкурентом является групповой подход Джейнса.
вероятностная
41
Предположим, что вы и ваш друг анализируете один и тот же набор данных, используя обычную модель. Вы принимаете обычную параметризацию нормальной модели, используя среднее значение и дисперсию в качестве параметров, но ваш друг предпочитает параметризовать нормальную модель с коэффициентом вариации и точностью в качестве параметров (что совершенно «допустимо»). Если вы оба используете приоры Джеффриса, ваше апостериорное распределение будет апостериорным распределением вашего друга, должным образом трансформированным из его параметризации в ваше. Именно в этом смысле априор Джеффриса «инвариантен»
(Кстати, «инвариант» - это ужасное слово; мы на самом деле имеем в виду, что оно «ковариантно» в том же смысле тензорного исчисления / дифференциальной геометрии, но, конечно, этот термин уже имеет хорошо установленное вероятностное значение, поэтому мы не можем его использовать.)
Почему это свойство согласованности желательно? Потому что, если у априора Джеффриса есть хоть какой-то шанс представить невежество о значении параметров в абсолютном смысле (на самом деле это не так, но по другим причинам, не связанным с «инвариантностью»), а не незнание относительно конкретной параметризации модели, это должно быть так, что независимо от того, с какими параметризациями мы произвольно решили начать, наши потомки должны «совпадать» после преобразования.
Сам Джеффрис регулярно нарушал это свойство «инвариантности», когда строил свои приоры.
В этой статье есть несколько интересных дискуссий по этому и смежным вопросам.
@ StéphaneLaurent: Нужно иметь некоторую веру даже в состоянии полного невежества. Независимо от того, что у вас за спиной минус, любая вероятность, вызванная вашими данными, - это вера, которую вы принимаете в этом состоянии невежества. Интуитивный принцип, который должен соблюдаться при принятии решения, заключается в том, что он должен быть инвариантным при смене меток (включая репараметризацию). Я не уверен, но я думаю, что один только принцип (во всех его возможных интерпретациях - максимальная энтропия, инвариантная репараметризация и т. Д.) Всегда определяет веру.
Нил Дж
Поэтому, когда кто-то говорит «распределение отражает невежество», он подразумевает, что распределение соответствует этому принципу.
Нил Дж
12
Чтобы добавить некоторые цитаты к великому ответу Дзен: по словам Джейнса, настоятель Джеффриса является примером принципа групп трансформации, который вытекает из принципа безразличия:
A1A2п1= р2( 1 , 2 ) тогда мы могли бы создать новую проблему, в которой наш уровень знаний будет таким же, но в котором мы назначаем разные вероятности ...
Теперь, чтобы ответить на ваш вопрос: «Почему вы не хотите, чтобы предыдущий изменялся при смене переменных?»
По мнению Джейнса, параметризация - это другой вид произвольной метки, и нельзя «путем простого обмена метками создать новую проблему, в которой наш уровень знаний такой же, но в котором мы назначаем разные вероятности». »
Сиань получил письмо с похвалой Джейнса: ceremade.dauphine.fr/~xian/critic.html Жаль, если вы не читаете по-французски, эта почта и пугающая, и забавная. Автор, кажется, сошел с ума, слишком много думая о байесовской статистике;)
Стефан Лоран
1
@ StéphaneLaurent: сейчас читаю. Это абсолютно правильно: "si vous affirmez en page 508" неповторимость большинства экспериментов "quai bon ensuite" в поисках оптимальных процедур для феминисток "на стр. 512« Сложные проблемы и проблемы, с которыми сталкиваются многие другие », оставьте комментарий, если хотите сказать, что это так, если вы хотите сказать, что у вас есть проблемы с примирением, а не с каким-либо примирением (стр. 517-518)? я думаю, что это не так! "
Нил Дж
1
Кроме того: «Принцесса высочайшей степени энтузиазма и абсолюта не имеет смысла и не имеет смысла, и все это в результате чего-то значимого, априори. Как и моя личная информация, Теория информации, Mécanique Statistique, Thermodynamique… »также описывает мою позицию. Однако, в отличие от автора, я не заинтересован в том, чтобы часами убеждать других принять то, что я считаю естественным.
Он просто указывает форму распространения; он не говорит вам, какими должны быть его параметры.
Вы никогда не будете полностью невежественны - всегда есть что-то в параметре, который вы знаете (например, часто это не может быть бесконечностью). Используйте его для вывода, определив предварительное распределение. Не лгите себе, говоря, что вы ничего не знаете.
«Инвариантность при трансформации» не является желательным свойством. Ваша вероятность изменяется при трансформации (например, по якобиану). Это не создает «новых проблем» темпа Джейнса. Почему к предыдущему нельзя относиться одинаково?
Ответы:
Позвольте мне завершить ответ дзен. Мне не очень нравится понятие «представление невежества». Важной вещью является не Джефрис до, а Джеффрис зад . Эта апостериорная задача призвана максимально полно отразить информацию о параметрах, представленных данными. Свойство инвариантности естественно требуется для двух следующих пунктов. Рассмотрим, например, биномиальную модель с неизвестным параметром пропорции и параметром шансов ψ = θθ .ψ = θ1 - θ
Апостериорный Джеффрис на отражает как можно лучше информацию о θ, приведенную данными. Между θ и ψ существует взаимно-однозначное соответствие . Затем, преобразование аппроксимации Джеффри на θ в апостериорный на ψ (с помощью обычной формулы изменения переменных) должно дать распределение, максимально отражающее информацию о ψ . Таким образом, это распределение должно быть задним числом Джеффриса около ψ . Это свойство инвариантности.θ θ θ ψ θ ψ ψ ψ
Важным моментом при подведении итогов статистического анализа является научное общение . Представьте, что вы даете Джеффриса на научному коллеге. Но он / она интересуется ψ, а не θ . Тогда это не проблема со свойством инвариантности: он / она просто должен применить формулу изменения переменных.θ ψ θ
источник
Предположим, что вы и ваш друг анализируете один и тот же набор данных, используя обычную модель. Вы принимаете обычную параметризацию нормальной модели, используя среднее значение и дисперсию в качестве параметров, но ваш друг предпочитает параметризовать нормальную модель с коэффициентом вариации и точностью в качестве параметров (что совершенно «допустимо»). Если вы оба используете приоры Джеффриса, ваше апостериорное распределение будет апостериорным распределением вашего друга, должным образом трансформированным из его параметризации в ваше. Именно в этом смысле априор Джеффриса «инвариантен»
(Кстати, «инвариант» - это ужасное слово; мы на самом деле имеем в виду, что оно «ковариантно» в том же смысле тензорного исчисления / дифференциальной геометрии, но, конечно, этот термин уже имеет хорошо установленное вероятностное значение, поэтому мы не можем его использовать.)
Почему это свойство согласованности желательно? Потому что, если у априора Джеффриса есть хоть какой-то шанс представить невежество о значении параметров в абсолютном смысле (на самом деле это не так, но по другим причинам, не связанным с «инвариантностью»), а не незнание относительно конкретной параметризации модели, это должно быть так, что независимо от того, с какими параметризациями мы произвольно решили начать, наши потомки должны «совпадать» после преобразования.
Сам Джеффрис регулярно нарушал это свойство «инвариантности», когда строил свои приоры.
В этой статье есть несколько интересных дискуссий по этому и смежным вопросам.
источник
Чтобы добавить некоторые цитаты к великому ответу Дзен: по словам Джейнса, настоятель Джеффриса является примером принципа групп трансформации, который вытекает из принципа безразличия:
Теперь, чтобы ответить на ваш вопрос: «Почему вы не хотите, чтобы предыдущий изменялся при смене переменных?»
По мнению Джейнса, параметризация - это другой вид произвольной метки, и нельзя «путем простого обмена метками создать новую проблему, в которой наш уровень знаний такой же, но в котором мы назначаем разные вероятности». »
источник
источник
Джеффрис до этого бесполезен . Это потому что:
Просто не используйте это.
источник