Я читаю об энтропии и мне трудно понять, что это означает в непрерывном случае. На вики-странице указано следующее:
Распределение вероятностей событий в сочетании с объемом информации о каждом событии образует случайную величину, ожидаемое значение которой представляет собой средний объем информации или энтропию, генерируемую этим распределением.
Так что, если я вычислю энтропию, связанную с непрерывным распределением вероятностей, что это действительно говорит мне? Они приводят пример с подбрасыванием монет, поэтому в отдельном случае, но если есть интуитивно понятный способ объяснить с помощью такого примера в непрерывном случае, это было бы здорово!
Если это помогает, определение энтропии для непрерывной случайной величины является следующим:
Чтобы попытаться сделать это более конкретно, рассмотрим случай , а затем, согласно Википедии , энтропия
Итак, теперь мы вычислили энтропию для непрерывного распределения (гамма-распределения), и поэтому, если я теперь оценим это выражение, , с учетом и , что на самом деле мне скажет эта величина?
Ответы:
Энтропия говорит вам, сколько неопределенности в системе. Допустим, вы ищете кошку и знаете, что она находится где-то между вашим домом и соседями, в 1 миле от вас. Ваши дети говорят вам, что вероятность того, что кошка окажется на расстоянии от вашего дома, лучше всего описывается бета-распределением f ( x ; 2 , 2 ) . Так что кошка может быть где -то между 0 и 1, но более вероятно, будет в середине, то есть х м а х = 1 / 2 .x f(x;2,2) xmax=1/2
Давайте включим бета-распределение в ваше уравнение, тогда вы получите .H=−0.125
Затем вы спрашиваете свою жену, и она говорит вам, что лучшим распределением, описывающим ее знания о вашей кошке, является равномерное распределение. Если вы подключите его к уравнению энтропии, вы получите .H=0
Распределение как по форме, так и по бета-версии позволяет кошке находиться в пределах 0-1 мили от вашего дома, но в униформе больше неопределенности, потому что ваша жена на самом деле не имеет ни малейшего понятия, где прячется кошка, в то время как у детей есть какая-то идея , они думают, что это больше скорее всего, будет где-то посередине. Вот почему энтропия беты ниже, чем у униформы.
Вы можете попробовать другие дистрибутивы, может быть , ваш сосед говорит вам кошка любит быть рядом с любой из домов, так что его бета - распределение с . Его H должно быть ниже, чем у униформы, потому что вы получаете представление о том, где искать кошку. Угадайте, выше или ниже информационная энтропия вашего соседа, чем у ваших детей? Я бы сделал ставку на детей в любой день по этим вопросам.α=β=1/2 H
ОБНОВИТЬ:
Как это работает? Один из способов думать об этом - начать с равномерного распределения. Если вы согласны с тем, что это тот, кто обладает наибольшей неопределенностью, подумайте о том, чтобы его беспокоить Давайте посмотрим на дискретный случай для простоты. Возьмите из одной точки и добавьте его в другую следующим образом: p ′ i = p - Δ p p ′ j = p + Δ pΔp
источник
Я хотел бы добавить прямой ответ на этот вопрос:
источник