Я столкнулся с недоумением термина, который относится к усредненной по логарифму обратной вероятности на невидимых данных. Статья Википедии о недоумении не дает интуитивное значение для того же.
Эта мера недоумения использовалась в статье pLSA .
Кто-нибудь может объяснить необходимость и интуитивное значение меры недоумения ?
measurement
perplexity
ученик
источник
источник
Ответы:
Вы смотрели статью Wikipedia о недоумении . Это дает недоумение дискретного распределения как
который также может быть записан как
т.е. как средневзвешенное геометрическое из обратных вероятностей. Для непрерывного распределения сумма превратится в интеграл.
В статье также дается способ оценки растерянности модели с использованием фрагментов тестовых данных.N
что также может быть написано
или множеством других способов, и это должно сделать еще более ясным, откуда взялась «средняя логарифмическая обратная вероятность».
источник
Я нашел это довольно интуитивным:
http://planspace.org/2013/09/23/perplexity-what-it-is-and-what-yours-is/
источник
Я тоже удивился этому. Первое объяснение неплохое, но вот мои 2 натса для чего бы то ни было.
Прежде всего, недоумение не имеет ничего общего с характеристикой того, как часто вы угадываете что-то правильно. Это больше связано с характеристикой сложности стохастической последовательности.
Мы смотрим на величину,2- ∑Иксp ( x ) log2р ( х )
Давайте сначала отменим журнал и возведение в степень.
Я думаю, что стоит отметить, что недоумение инвариантно с базой, которую вы используете для определения энтропии. Таким образом, в этом смысле недоумение бесконечно более уникально / менее произвольно, чем энтропия как измерение.
Отношение к кости
Таким образом, недоумение представляет количество сторон справедливого кубика, которое при броске создает последовательность с той же энтропией, что и заданное вами распределение вероятностей.
Количество штатов
Таким образом, когда вы заставляете делать прокатку одной стороны матрицы все более маловероятной, недоумение заканчивается тем, что эта сторона не существует.
источник
Чтобы объяснить, недоумение равномерного распределения X это просто | X |, количество элементов. Если мы попытаемся угадать значения, которые получат iid-образцы из равномерного распределения X, просто сделав iid-догадки из X, мы будем правы 1 / | X | = 1 / недоумение времени. Поскольку равномерное распределение сложнее всего угадать значения, мы можем использовать 1 / недоумение как нижнюю границу / эвристическое приближение для того, как часто наши догадки будут правильными.
источник