Этот вопрос дает количественное определение кросс-энтропии с точки зрения ее формулы.
Я ищу более условное определение, википедия говорит:
В теории информации кросс-энтропия между двумя распределениями вероятностей измеряет среднее число битов, необходимое для идентификации события из набора возможностей, если схема кодирования используется на основе заданного распределения вероятности q, а не «истинного» распределения p ,
Я подчеркнул ту часть, которая доставляет мне затруднения в понимании этого. Мне бы хотелось хорошее определение, которое не требует отдельного (уже существующего) понимания энтропии.
entropy
information-theory
Линдон Уайт
источник
источник
Ответы:
Затем, если мы хотим оптимально кодировать его, мы кодируем A как 0, а B как 1, поэтому мы получаем один бит закодированного сообщения на одну букву. (И это точно энтропия Шеннона нашего распределения вероятностей.)
источник