Предположим, что - это набор взаимоисключающих результатов дискретной случайной величины, а - это функция полезности, где , и т. Д.
Когда равномерно распределена по а - функция вероятностной массы , энтропия Шеннона равна максимизируется ( , и когда один элемент имеет все масс «s, энтропия Шеннона минимизируется ( , на самом деле). Это соответствует интуиции о неожиданности (или уменьшении неопределенности ) и результатах и неопределенности (или ожидаемой неожиданности ) и случайных переменных:
- Когда равномерно распределено, неопределенность максимизируется, и чем больше результатов для равномерного распределения массы, тем более неопределенной мы являемся.
- Когда имеет все его масса сосредоточена в одном исходе, у нас нет никакой неопределенности.
- Когда мы назначаем результат с вероятностью , мы не получаем никакой информации («не удивлены»), когда мы фактически наблюдаем это.
- Когда мы назначаем результат вероятности ближе и ближе к , наблюдение за его фактическим происходящим становится все более информативным («удивительным»).
(Конечно, все это ничего не говорит о гораздо более конкретной - но менее эпистемологической - интерпретации кодирования информации / энтропии Шеннона.)
Однако, когда имеет интерпретацию функции полезности , существует ли чувственная интерпретация или ? Мне кажется, что может быть:л о г 1 ∑f(ω)log1
- если как PMF представляет собой равномерное распределение по , то как функция полезности соответствует безразличию к результатам, которые не могут быть больше *Ω f
- функция полезности, в которой у одного результата есть вся полезность, а у остальных нет ни одной (как бы полезна ни была полезность), соответствует очень сильным относительным предпочтениям - отсутствию равнодушия.
Есть ли ссылка на это? Я что-то упустил из-за ограничений на сравнение функций вероятностной массы и нормализованных относительных утилит по дискретным случайным переменным?
* Я знаю о кривых безразличия и не понимаю, как они могут относиться к моему вопросу по разным причинам, начиная с моего внимания к категориальному пробному пространству и с того факта, что меня не интересует «безразличие» как таковое, а точнее, как интерпретировать утилиты как вероятности и как интерпретировать функционалы по вероятностям, когда (дискретное) «распределение вероятностей», о котором идет речь, фактически или (дополнительно) имеет интерпретацию функции полезности.
Ответы:
Прежде чем обсуждать энтропию Шеннона, следует обсудить еще один момент: кажется, что вы имеете в виду скорее кардинальную полезность, чем порядковую .
«Нормализованные» функции полезности могут быть выведены, конечно, в обоих случаях. Но понятие «относительное предпочтение» может быть определено и измерено только в контексте основной полезности.
И проблема возникает не в двух крайностях, которые вы описываете, а во всех возможных промежуточных случаях.
Простой пример: предположим, что есть три «результата», (скажем, уровни потребления или три разных товара в каждом количестве). Ваша служебная функция присвоила им значенияA , B , C
Под порядковой полезностью, это просто говорит нам, что
Конечно, мы можем нормализовать их, разделив на чтобы получить100
и ранжирование трех результатов сохраняется
Но под порядковой полезностью мы могли бы очень хорошо использовать другую полезную функцию, которая назначала бы
и получить
Ранжирование одно и то же , так что две функции полезности и W являются эквивалентны под порядковым полезности.В W
Но в том, что вы описываете, функция полезности представляет различные относительные предпочтения, чем V, и поэтому это не та же функция полезности. Но это имеет смысл только при кардинальной полезности, где предполагается, что количественные сравнения между числами полезности имеют смысл.W В
Вы знакомы с проблемами, связанными с основной полезностью?
источник
После обмена с ОП в моем другом ответе давайте немного поработаем с его подходом.
Мы имеем дискретную случайную величину с конечным носителем, Х = { х 1 , . , , , Х к } , и вероятность того, функция масс (PMF), Pr ( Х = х я ) = р я , я = 1 , . , , , кИкс Икс= { х1, . , , , хК} Pr ( X= хя) = ря, Я = 1 , . , , , к
Значения в поддержке также входы в вещественнозначной кардинальном функцию полезности, U ( х я ) > 0Икс . Затем мы рассмотрим нормированную функцию полезноститы ( хя) > 0∀ я
и нам говорят, что
и мы получили общий результат:
Но у меня сложилось впечатление, что это не то, что имеет в виду ФП. Скорее, он рассматривает энтропию Шеннона как метрику, которая имеет некоторые желательные алгебраические свойства и, возможно, может компактно измерить значимым образом что-то интересное.
Это было сделано ранее в экономике, особенно в промышленной организации, где были построены индексы концентрации рынка («степень конкуренции / монополистическая структура рынка»). Отмечу два, которые выглядят здесь особенно актуально.
Encaoua, D. & Jacquemin, A. (1980). Степень монополии, показатели концентрации и угрозы въезда. Международный экономический обзор, 87-105. обеспечивают аксиоматический вывод «допустимых» индексов концентрации, т.е. они определяют свойства, которыми должен обладать такой индекс. Поскольку их подход является абстрактным, я полагаю, что он может быть полезен для того, что ФП хочет изучить и придать смысл.
источник
Таким образом, вам необходимо сначала предоставить значимую шкалу отношения к вашей полезности. Один из способов сделать это - дать интерпретацию естественному уровню полезности 0. Без этой спецификации энтропия не имеет смысла.
источник