Есть ли какое-либо применение для количества в статистике или теории информации?
probability
entropy
information-theory
charles.y.zheng
источник
источник
Ответы:
Полагая обозначает функцию плотности вероятности (либо по отношению к Лебегу или счетной мере, соответственно), количество известен как энтропия Реньи порядка . Это обобщение энтропии Шеннона, которая сохраняет многие из тех же свойств. Для случая мы интерпретируем как , и это соответствует стандартной энтропии Шеннона .е
α≥0α=1H1(f)limα→1Hα(f)H(f)
Рени представил это в своей статье
что стоит прочитать не только за идеи, но и за образцовый стиль экспозиции.
Случай является одним из наиболее распространенных вариантов для и этот частный случай (также) часто называют энтропией Реньи. Здесь мы видим, что для случайная величина, распределенная с плотностью .α H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E f ( X ) ) fα = 2 α
Обратите внимание, что - выпуклая функция, и поэтому по неравенству Дженсена где правая часть обозначает энтропию Шеннона. Следовательно, энтропия Реньи дает нижнюю границу для энтропии Шеннона и во многих случаях ее легче вычислить.- журнал( х )
Другой естественный случай, когда возникает энтропия Реньи, - это рассмотрение дискретной случайной величины и независимой копии . В некоторых сценариях мы хотим знать вероятность того, что , что по элементарному вычислению равноИкс Икс⋆ Икс= Х⋆
Здесь обозначает плотность по отношению к счетной мере на множестве значений .е Ω = { хя: i ∈ N }
(Общая) энтропия Реньи, по-видимому, также связана со свободной энергией системы в тепловом равновесии, хотя я лично не в курсе этого. (Очень) недавняя статья на эту тему
источник