Я читал о «Джеффри до» в википедии: « Джеффри до» и видел, что после каждого примера описывается, как преобразование, стабилизирующее дисперсию, превращает «Джеффриса» в униформу.
Например, для случая Бернулли говорится, что для монеты, которая является головой с вероятностью , модель испытания Бернулли дает то, что для Джефриса для параметра является:
Затем утверждается, что это бета-распределение с . В нем также говорится, что если, то приоритет Джеффриса дляравномерен в интервале.
Я признаю преобразование как преобразование, стабилизирующее дисперсию. Что меня смущает, так это:
Почему преобразование, стабилизирующее дисперсию, приводит к равномерному априорному процессу?
Почему мы бы даже хотели униформу до? (так как кажется, что это может быть более восприимчивым к тому, чтобы быть неподобающим)
В общем, я не совсем уверен, почему дается квадрат-синусное преобразование и какую роль играет. Есть ли у кого-нибудь идеи?
источник
Ответы:
Приор Джеффриса инвариантен при репараметризации. По этой причине многие байесовцы считают, что это «неинформативный априор». (Хартиган показал, что существует целое пространство таких априоров для α + β = 1, где J - априор Джеффриса, а H - асимптотически локально-инвариантный априт Хартигана. - Инвариантные априорные распределения )JαHβ α+β=1 J H
Часто повторяется ложь, что единообразный априор неинформативен, но после произвольного преобразования ваших параметров и единообразного априора для новых параметров означает нечто совершенно иное. Если произвольное изменение параметризации влияет на ваш предшественник, то ваш предшествующий отчетливо информативен.
Использование Джеффриса по определению эквивалентно использованию плоского априора после применения стабилизирующего дисперсию преобразования.
С математической точки зрения, использование предварительного Джеффриса и использование плоского предварительного после применения преобразования, стабилизирующего дисперсию, эквивалентны. С человеческой точки зрения последнее, вероятно, лучше, потому что пространство параметров становится «однородным» в том смысле, что различия все одинаковы во всех направлениях, независимо от того, где вы находитесь в пространстве параметров.
Рассмотрим пример Бернулли. Разве не странно, что результат теста 99% - это то же расстояние до 90%, что 59% до 50%? После вашего преобразования, стабилизирующего дисперсию, прежняя пара более разделена, как и должно быть. Это соответствует нашей интуиции о реальных расстояниях в пространстве. (Математически преобразование, стабилизирующее дисперсию, делает кривизну log-потерь равной единичной матрице.)
источник
На странице Википедии, которую вы предоставили, на самом деле не используется термин «преобразование, стабилизирующее дисперсию». Термин «стабилизирующее дисперсию преобразование» обычно используется для обозначения преобразований, которые делают дисперсию случайной величины постоянной. Хотя в случае с Бернулли это именно то, что происходит с трансформацией, это не совсем то, что является целью. Цель состоит в том, чтобы получить равномерное распределение, а не просто дисперсию, стабилизирующую.
Напомним, что одна из главных целей использования Jeffreys перед том, что она инвариантна относительно преобразований. Это означает, что если вы повторно параметризовали переменную, предыдущая не изменится.
1.
Thusθ is the uniform distribution on (0,π/2) . This is why the sin2(θ) transformation is used, so that the re-parametrization leads to a uniform distribution. The uniform distribution is now the Jeffreys prior on θ (since Jeffreys prior is invariant under transformation). This answers your first question.
2.
Often in Bayesian analysis one wants a uniform prior when there is not enough information or prior knowledge about the distribution of the parameter. Such a prior is also called a "diffuse prior" or "default prior". The idea is to not commit to any value in the parameter space more than other values. In such a case the posterior is then completely dependent on the data likelihood. Since,
If the transformation is such that the transformed space is bounded, (like(0,π/2) in this example), then the uniform distribution will be proper. If the transformed space is unbounded, then the uniform prior will be improper, but often the resulting posterior will be proper. Although, one should always verify that this is the case.
источник