Предположим, у меня есть два набора и и совместное распределение вероятностей по этим наборам . Пусть и обозначают маргинальные распределения по и соответственно.
Взаимная информация между и определяется следующим образом:
то есть это среднее значение поточечной взаимной информации pmi .
Предположим, что я знаю верхнюю и нижнюю границы для pmi : т.е. я знаю, что для всех выполняется следующее:
Какая верхняя граница это подразумевает для . Конечно, это подразумевает , но я бы хотел более жесткую оценку, если это возможно. Это кажется мне правдоподобным, потому что p определяет распределение вероятностей, а pmi не может принимать свое максимальное значение (или даже быть неотрицательным) для каждого значения и .
Ответы:
Мой вклад состоит из примера. Это иллюстрирует некоторые ограничения на то, как взаимная информация может быть ограничена, учитывая границы точечной взаимной информации.
Возьмем и р ( х ) = 1 / п для всех х ∈ Х . Для любого пусть будет решением уравнения Затем мы помещаем точечную массу в точки в пространстве произведений таким образом, чтобы былоX=Y={1,…,n} p(x)=1/n x∈X k > 0 m e k + ( n - m ) e - k = n . e k / n 2 n m { 1 , … , n } 2 мm∈{1,…,n/2} k>0
По построению ясно, что для всех и (после некоторых вычисления) с взаимная информация ведет себя как для и как для .x , y ∈ { 1 , … , n } I ( X ; Y ) = k n mpmi(x,y)∈{−k,k}, x,y∈{1,…,n}
источник
Я не уверен, что это то, что вы ищете, так как оно в основном алгебраическое и не использует свойства p как вероятностного распределения, но вот что вы можете попробовать.
Я не уверен, полезно это или нет.
РЕДАКТИРОВАТЬ: После дальнейшего рассмотрения я считаю, что это на самом деле менее полезно, чем исходная верхняя граница k. Я не буду удалять это, хотя в случае, если это может намекнуть в начальной точке.
источник