Антоним дисперсии

19

Есть ли слово, которое означает «обратная дисперсия»? То есть, если имеет высокую дисперсию, то X имеет низкую ? Не заинтересованы в близком антониме (например, «соглашение» или «сходство»), но конкретно означают 1 / σ 2 ?XX1/σ2

Хью
источник
2
Согласие и сходство в любом случае в значительной степени вытесняются, по крайней мере в формальных определениях, для парных и других сравнений. Тем не менее, это не исключает неформального разговора, например , из низкой дисперсии видно, что разные измерения имеют тенденцию совпадать
Ник Кокс
1
Я добавил [bayesian]тег, поскольку, как вы можете видеть из моего ответа и комментариев, ответ тесно связан с байесовской статистикой, и будет легче найти теги, подобные этой.
Тим

Ответы:

33

1/σ2 . Вы можете найти его часто упоминаемым в руководствах по Байесовскому программному обеспечению для BUGS и JAGS , где он используется в качестве параметра для нормального распределения вместо дисперсии. Это стало популярным, потому что гамма может использоваться в качестве сопряженного априора для точности в нормальном распределении, как замечено Kruschke (2014) и @Scortchi .


Kruschke, J. (2014). Выполнение байесовского анализа данных: учебное пособие с использованием R, JAGS и Stan. Академическая пресса, с. 454.

Тим
источник
5
(+1) Я не помню, чтобы видел это за пределами этого контекста, где удобно иметь возможность говорить такие вещи, как «добавить точность предыдущего и данные, чтобы получить точность заднего», и использовать знакомое гамма-распределение в качестве сопряженного априора для точности.
Scortchi - Восстановить Монику
4
Также часто встречается в многомерных настройках, где точность становится обратной к ковариационной матрице. (И снова, это полезно в качестве параметра для нормального распределения, когда вам нужно предварительно связать).
Питер
3
Да, прецизионная матрица очень полезна при работе с многомерными гауссианами (как сказал @Peter), например, формулы для условных распределений проще с точки зрения прецизионных матриц. Бишоп тратит много страниц, описывающих, как это работает, в главе 3 его Распознавания образов и машинного обучения , и это затем появляется много раз на протяжении всей книги.
говорит амеба, восстанови Монику