Я думаю, что это зависит от того, как это должно быть использовано.
Просто для справки для других читателей, если и Q являются вероятностными мерами, то расходимость Дженсена-Шеннона равна
J ( P , Q ) = 1пQ
гдеR=1
J( P, Q ) = 12( Д(П∣ ∣ R ) + D ( Q ∣ ∣ R ) )
- мера средней точки, а
D(⋅∣∣⋅)- дивергенция Кульбака-Лейблера.
R = 12( P+ Q )D ( ⋅ ∣ ∣ ⋅ )
Теперь я хотел бы использовать квадратный корень из расхождения Дженсена-Шеннона, поскольку он является метрикой , то есть удовлетворяет всем «интуитивным» свойствам меры расстояния.
Подробнее об этом см.
Эндрес и Шинделин, Новая метрика для распределения вероятностей , IEEE Trans. на инфо. Thy. том 49, нет. 3 июля 2003 г., стр. 1858-1860.
Конечно, в некотором смысле это зависит от того, для чего это нужно. Если все, что вы используете, это для оценки некоторой попарной меры, то любое монотонное преобразование JSD будет работать. Если вы ищете что-то, что ближе всего к «квадрату расстояния», то сама JSD является аналогичной величиной.
Кстати, вас также может заинтересовать этот предыдущий вопрос и связанные с ним ответы и обсуждения.
J(P,Q) = J(Q,P)
. Я читал, что расхождение JS симметрично в P и Q. Это значитJS(P,Q) = JS(Q,P)
? Я спрашиваю об этом, потому что я используюKLdiv
функцию изflexmix
пакета вR
. Для моих двух распределений матричный вывод из KLdiv не является симметричным. Я ожидал, что JS исправит это, но вывод JS (вычисленный с использованием KL) не является симметричным.