Какие ваши любимые примеры, когда теория информации используется, чтобы доказать аккуратное комбинаторное утверждение простым способом?
Некоторые примеры, которые я могу придумать, связаны с нижними границами для локально декодируемых кодов, например, в этой статье: предположим, что для двоичных строк длины он содержит то, что для каждого i , для k_i различного пары { j_1, j_2 }, e_i = x_ {j_1} \ oplus x_ {j_2}. Тогда m по крайней мере экспоненциально по n, где показатель степени линейно зависит от среднего отношения k_i / m . н яj 1 , j 2 e i = x j 1 ⊕ x j 2 . к я / м
Другой (связанный) пример - это некоторые изопериметрические неравенства в булевом кубе (не стесняйтесь уточнять это в своих ответах).
У вас есть более приятные примеры? Желательно, кратко и легко объяснить.
источник
Ответы:
Доказательство Мозером конструктивной локальной леммы Ловаша . Он в основном показывает, что в условиях локальной леммы второй по простоте алгоритм для SAT вы можете себе представить. (Первым простым может быть просто попытаться выполнить случайное назначение, пока оно не сработает. Второе простейшее - это выбрать случайное назначение, найти неудовлетворенное предложение, удовлетворить его, а затем посмотреть, какие другие предложения вы нарушили, повторить и повторить до выполнения.) Доказательство того, что это выполняется за полиномиальное время, является, пожалуй, самым элегантным использованием теории информации (или сложности Колмогорова, как бы вы ни хотели это назвать в этом случае), которую я когда-либо видел.
источник
Мой любимый пример этого типа - основанное на энтропии доказательство леммы Ширера. (Я узнал об этом и некоторых других очень красивых доказательствах из « Энтропии и счета Джайкумара Радхакришнана» .)
Утверждение. Предположим, у вас есть точек в которые имеют различных проекций на плоскости , различных проекций на плоскости и различных проекций на плоскости . Тогда .R 3 n x y z n y x z n z x y n 2 ≤ n x n y n zn R3 nx yz ny xz nz xy n2≤nxnynz
Доказательство. Пусть - точка, случайно выбранная из точек. Пусть , , обозначают его проекции на плоскости , и соответственно. n p x p y p z y z x z x yp=(x,y,z) n px py pz yz xz xy
С одной стороны, , , и , по основным свойствам энтропии.H [ p x ] ≤ log n x H [ p y ] ≤ log n y H [ p z ] ≤ log n zH[p]=logn H[px]≤lognx H[py]≤logny H[pz]≤lognz
С другой стороны, имеем а также Добавление трех последних уравнений дает нам: , где мы использовали тот факт, что обусловливание уменьшает энтропию (обычно для любых случайных величин ).H [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + H [ z | х ] Н [p z ] = H [ x ] + H [ y | х ] Н [ р х ] + Н | y ] ≥ 2 H [ x ]
Таким образом, мы имеем или .n 2 ≤ n x n y n z2logn≤lognx+logny+lognz n2≤nxnynz
источник
Энтропийное доказательство теоремы Брегмана Радхакришнана о том , что число совершенных соответствий в двудольном графе не больше . В доказательстве используются две очень умные идеи. Вот набросок доказательства:( L ∪ R , E ) ∏ v ∈ L ( d ( v ) ! ) 1 / d ( v )p (L∪R,E) ∏v∈L(d(v)!)1/d(v)
Обобщением этого неравенства является теорема Канна-Ловаша: число совершенных совпадений в любом графе не более . Энтропийное доказательство этого результата было доказано Катлером и Рэдклиффом .G ∏v∈V(G)(d(v)!)1/2d(v)
источник
Прекрасные примеры содержатся в двух статьях Пиппенгера «Теоретико-информационный метод в комбинаторной теории». J. Comb. Теория, Сер. A 23 (1): 99-104 (1977) и энтропия и перечисление булевых функций. IEEE Труды по теории информации 45 (6): 2096-2100 (1999). На самом деле, несколько работ Пиппенгера содержат симпатичные доказательства комбинаторных фактов посредством энтропии / взаимной информации. Кроме того, две книги: Jukna, Extremal Combinatorics с приложениями в области компьютерных наук и Aigner, Combinatorial Search содержат несколько хороших примеров. Мне также нравятся две статьи Madiman et al. Информационно-теоретические неравенства в аддитивной комбинаторике и Теренс Тао, оценки сумм энтропии (их можно найти с помощью Google Scholar). Надеюсь, это поможет.
источник
Другой замечательный пример - альтернативное доказательство Терри Тао леммы регулярности графа Семереди . Он использует теоретико-информационную перспективу для доказательства сильной версии леммы регулярности, которая оказывается чрезвычайно полезной при доказательстве леммы регулярности для гиперграфов . Доказательство Дао, безусловно, является наиболее кратким доказательством леммы о регулярности гиперграфа.
Позвольте мне попытаться объяснить на очень высоком уровне эту теоретико-информационную перспективу.
Предположим, у вас есть двудольный граф с двумя наборами вершин и и множеством ребер E подмножество . Плотность ребер равна, Мы говорим, что является -регулярным, если для всех и плотность подграфа, индуцированного и равна,G V1 V2 V1×V2 G ρ=|E|/|V1||V2| G ϵ U1⊆V1 U2⊆V2 U1 U2 ρ±ϵ|U1||U2|/|V1||V2|
Теперь рассмотрим выбор вершины из и вершины из , независимо и равномерно наугад. Если мало, а велико, мы можем интерпретировать -регулярность как выражение, что обусловливание в и в не сильно влияет на вероятность того, что образует края в . Другими словами, даже после того, как нам дали информацию, что находится в иx1 V1 x2 V2 ϵ U1,U2 ϵ G x1 U1 x2 U2 (x1,x2) G x1 U1 x2 находится в , мы не получили много информации о том является ли ребром или нет.U2 (x1,x2)
Лемма регулярности Семереди (неформально) гарантирует, что для любого графа можно найти разбиение и разбиение на подмножества постоянной плотности, так что для большинства таких пар подмножеств индуцированный подграф на является -регулярным. Делая вышеприведенную интерпретацию, учитывая любые две высокоэнтропийные переменные и и любое событие , можно найти переменные с низкой энтропией и - «low- энтропия ", потому что подмножества иV1 V2 U1⊂V1,U2⊂V2 U1×U2 ϵ x1 x2 E(x1,x2) U1(x1) U2(x2) U1 U2 имеют постоянную плотность - так что приблизительно не зависит от и , или что взаимная информация между переменными очень мала. Тао фактически формулирует гораздо более сильную версию леммы регулярности, используя эту настройку. Например, он не требует, чтобы и были независимыми переменными (хотя, насколько я знаю, применения этого обобщения еще не было). E x1|U1 x2|U2 x1 x2
источник
В основном этому вопросу посвящен целый курс:
https://catalyst.uw.edu/workspace/anuprao/15415/86751
Курс все еще продолжается. Так что не все заметки доступны на момент написания этого. Также некоторые примеры из курса уже упоминались.
источник
Предположим, у нас есть точек в и мы хотим уменьшить размерность. Если мы хотим, чтобы попарные расстояния изменялись не более чем на , то мы можем уменьшить наше измерение с до . Это лемма Джонсона-Линденштраусса . В течение десятилетия самой известной нижней границей для измерения был Алон, , поэтому имел место разрыв в размере . Недавно Джейрам и Вудрафф закрылисьn ℓd2 1±ϵ d O(logn/ϵ2) Ω(logn/(ϵ2log(1/ϵ))) ∼log(1/ϵ) этот разрыв путем улучшения нижней границы Алона. Их доказательство едва опирается на геометрическую структуру. Они доказывают, что если бы лучшая граница была возможна, это нарушило бы одну нижнюю границу сложности коммуникации. И эта оценка доказана с помощью информационно-теоретических средств.
источник
Рассмотрим следующую довольно фундаментальную проблему в мире структур данных. У вас есть вселенная размером . Вы хотите сохранить элемент в качестве структуры статических данных, так что , когда пользователь хочет знать , если для некоторых ли , только укусил зонды в структуру данных необходимы где некоторая фиксированная константа. Цель состоит в том, чтобы минимизировать пространственную сложность структуры данных (с точки зрения количества хранимых битов).m u∈[m] x∈[m] x=u t t
Можно построить такую структуру данных размером . Идея проста. Разделите битов, необходимых для описания на блоков. Для каждого и для каждого возможного бистринга длины сохраните в структуре данных, равен ли -й блок из этой цепочке битов.O(m1/t) logm u t i∈[t] (logm)/t i u
Теперь для нижней границы. Пусть - элемент, случайно выбранный случайным образом из . Ясно, что . Если являются битами, измеренными в структуре данных (возможно, адаптивно) в этой последовательности, то: , где - размер структуры данных. Это дает: .[ m ] H [ X ] = log m X 1 , … , X t t H [ X ] = H [ X 1 ] + H [ X 2 | X 1 ] + ⋯ + H [ X t | X 1 , … , X t - 1 ] ≤ t log s sX [m] H[X]=logm X1,…,Xt t H[X]=H[X1]+H[X2|X1]+⋯+H[Xt|X1,…,Xt−1]≤tlogs s s≥m1/t
Точные границы неизвестны, если мы хотим сохранить два элемента и . Смотрите здесь для лучших результатов в этом направлении.t>1
источник
Отличным примером является статья " Сортировка и энтропия " Кан и Ким. Энтропия метод используется , чтобы найти алгоритм , который дал известный посетом и unknon линейное расширение , найти линейное расширение по запросов , где является множество линейных расширений .P O ( log | X | ) XP P O(log|X|) X P
источник
Анализ средних случаев алгоритмов с использованием колмогоровской сложности по Jiang, Li, Vitanyi.
«Анализ сложности алгоритмов в среднем случае - очень практичная, но очень сложная проблема в информатике. В последние несколько лет мы показали, что колмогоровская сложность является важным инструментом для анализа средней сложности алгоритмов. Мы разработали метод несжимаемости [7]. В этой статье мы используем несколько простых примеров, чтобы дополнительно продемонстрировать силу и простоту такого метода. Мы доказываем границы среднего количества стеков (очередей), необходимых для сортировки последовательных или параллельных Queueusort или Stacksort. '
См. Также, например, колмогоровскую сложность и задачу о треугольнике типа Хейльбронна .
источник
Эквивалентность выборки и поиска по Скотту Ааронсону. Здесь он показывает эквивалентность проблемы выборки и поиска в теории сложности в отношении обоснованности расширенного тезиса Черча-Тьюринга. Стандартная теория информации, алгоритмическая теория информации и колмогоровская сложность используются фундаментально.
Он подчеркивает:
« Подчеркнем, что мы не используем колмогоровскую сложность как просто техническое удобство или как условное обозначение для счетного аргумента. Скорее, колмогоровская сложность кажется существенной даже для определения проблемы поиска ».
источник
Это просто, а также приблизительное: сколько комбинаций из 10 6 вещей из 10 9 , допускающих дублирование? Правильная формула
Но представьте, что вы даете инструкции пройтись по ряду миллиардов ведер, бросая по пути миллион шариков в ведра. Там будет ~ 10 9 "шаг к следующему ведру" инструкции и 10 6 "капля мрамора" инструкции. Общая информация
что является забавным, но довольно хорошим способом приблизительного подсчета (журнала). Мне это нравится, потому что это работает, если я забываю, как делать комбинаторику. Это равносильно тому, что
что похоже на приближение Стирлинга, отмена и пропущение чего-либо.
источник
Очень хорошее недавнее приложение, чтобы дать верхние границы для многомерных перестановок Линиала и Лурии, здесь: http://www.cs.huji.ac.il/~nati/PAPERS/hd_permutations.pdf
источник