Я не математик. Я искал в Интернете о KL Divergence. Я узнал, что дивергенция KL измеряет потерянную информацию, когда мы приближаемся к распределению модели относительно входного распределения. Я видел это между любыми двумя непрерывными или дискретными распределениями. Можем ли мы сделать это между непрерывным и дискретным или наоборот?
12
Ответы:
Нет: Дивергенция KL определяется только для распределений по общему пространству. Он спрашивает о плотности вероятности точки при двух различных распределениях, p ( x ) и q ( x ) . Если p распределение на R 3 и q распределение на Z , то q ( x ) не имеет смысла для точек p ∈Икс р ( х ) Q( х ) п р3 Q Z Q( х ) аp(z)не имеет смысла для точекz∈ Zp ∈ R3 p ( z) Z∈ Z , На самом деле, мы даже не можем сделать это для двух непрерывных распределений в пространствах разных измерений (или дискретных, или в любом случае, когда базовые вероятностные пространства не совпадают).
Если вы имеете в виду конкретный случай, может быть возможно придумать какой-то подобный дух меру различия между распределениями. Например, может иметь смысл кодировать непрерывное распределение под кодом для дискретного (очевидно, с потерянной информацией), например, округляя до ближайшей точки в дискретном случае.
источник
Да, дивергенция KL между непрерывными и дискретными случайными переменными хорошо определена. Если и Q - распределения в некотором пространстве X , то и P, и Q имеют плотности f , g относительно μ = P + Q и D K L ( P , Q ) = ∫ X f log fп Q Икс п Q е г μ = P+ Q
Например, если , P - мера Лебега, а Q = δ 0 - точечная масса в 0 , то f ( x ) = 1 - 1 x = 0 , g ( x ) = 1 x = 0 и D K L ( P , Q ) = ∞ .X =[0,1] п Q = δ0 0 е( х ) = 1 - 1х = 0 г( х ) = 1х = 0
источник
Не в общем. Дивергенция КЛ
источник