Согласно этой статье в википедии , можно представить произведение вероятностей x⋅y
как -log(x) - log(y)
делающее вычисления более оптимальными в вычислительном отношении. Но если я попробую пример, скажи:
p1 = 0.5
p2 = 0.5
p1 * p2 = 0.25
-log(p1) - log(p2) = 2
p3 = 0.1
p4 = 0.1
p3 * p4 = 0.01
-log(p3) - log(p4) = 6.64
Произведение вероятностей p1
и p2
выше, чем у p3
и p4
, но логарифмическая вероятность ниже.
Как придешь?
probability
logarithm
arithmetic
spacemonkey
источник
источник
Ответы:
Боюсь, вы неправильно поняли, о чем эта статья. Это не большой сюрприз, так как написано неясно. Происходят две разные вещи.
Во-первых, просто работать в масштабе журнала.
То есть вместо « » (когда у вас есть независимость) можно написать « log ( p A B ) = log ( p A ) + log ( p B ) ». Если вам необходима фактическая вероятность, вы можете экспоненциируетесь в конце , чтобы получить обратно р A B :пA B= рA⋅ рВ журнал( рA B) = журнал( рA) + журнал( рВ) пA B но при необходимости возведение в степень обычно оставляют до последнего возможного шага. Все идет нормально.пA B= ежурнал( рA) + журнал( рВ),
Вторая часть заменяет на - log p . Это так, что мы работаем с положительными ценностями.журналп -журналп
Лично я не вижу особой ценности в этом, тем более что это меняет направление любого порядка ( монотонно возрастает, поэтому, если p 1 < p 2 , то log ( p A ) < log ( p 2 ) ; это порядок обратный с - log p ).журнал п1< р2 журнал( рA) < журнал( р2) - журналп
источник