Мы в TCS часто используем мощные результаты и идеи из классической математики (алгебра, топология, анализ, геометрия и т. Д.).
Каковы некоторые примеры того, когда это пошло наоборот?
Вот некоторые из них, о которых я знаю (а также чтобы дать представление о типе результатов, о которых я спрашиваю):
- Кубические пены (Гай Киндлер, Райан О'Доннелл, Ануп Рао и Ави Вигдерсон: сферические кубы и скругления в больших измерениях, FOCS 2008)
- Программа теории геометрической сложности. (Хотя это технически является приложением алгебраической геометрии и теории представлений к TCS, они привели к введению новых квантовых групп и новых чисто алгебро-геометрических и теоретико-представительных идей в их стремлении к P против NP.)
- Работа над метрическими вложениями, основанная на алгоритмах аппроксимации и результатах не приближаемости
В частности, я не ищу применения TCS в логике (теория конечных моделей, теория доказательств и т. Д.), Если только они не вызывают особого удивления - связь между TCS и логикой слишком тесная, стандартная и историческая для целей этого вопроса.
reference-request
big-list
Joshua Grochow
источник
источник
Ответы:
Расширители были разработаны в значительной степени в TCS, и они имеют глубокие связи и приложения к математике.
источник
Существует доказательство Двира гипотезы конечного поля какейя.
источник
Милый пример, который я знаю, - это работа Майкла Фридмана под названием « Классы сложности как математические аксиомы », в которой описывается в области топологии 3-многообразий.P♯P≠NP
источник
Принципы инвариантности были мотивированы сложностью аппроксимации, но являются полезными аналитическими теоремами. Принцип: функция низкой степени, в которой каждая из переменных имеет небольшое влияние, ведет себя почти одинаково, независимо от того, являются ли входные данные независимыми случайными переменными или (соответствующими) гауссовыми случайными переменными. Это обобщение центральной предельной теоремы; там функция является средним из переменных.
Шумоустойчивость функций с низким влиянием: инвариантность и оптимальность Э. Моссель, Р. О'Доннелл, К. Олешкевич. Анналы математики 171 (1), с. 295-341 (2010). FOCS '05.
Теоремы о тестировании низкой степени мотивировались приложениями PCP, но представляют собой интересные алгебраические теоремы. Принцип: переменная функция над конечным полем которая в среднем по линиям в близка по расстоянию Хэмминга к полиному низкой степени на прямой , близка по расстоянию Хэмминга к полиному низкой степени весь .F F n F nn F Fn Fn
Близость расстояния Хэмминга к полиному низкой степени в некотором пространстве означает, что функция отождествляется с полиномом низкой степени на некоторой пренебрежимо малой доле пространства.
Улучшенное тестирование при низкой степени и его приложения . С. Арора и М. Судан. В ACM STOC 1997.
Субконстантный тест с низкой степенью вероятности ошибки и субконстантная характеристика вероятности ошибки PCP Н.П.
источник
Хотя я и предвзят, я думаю, что было бы справедливо сказать, что различные идеи из TCS способствовали прогрессу в обратной гипотезе для нормы Гауэрса, см., Например, статью Грина и Тао .
источник
Является ли теория вычислимости частью TCS? Если это так, то в качестве примера можно привести теорию вычислимости и дифференциальную геометрию Боба Соаре, которая демонстрирует применение результатов, полученных им с помощью Csima.
Не знаю, почему ссылка не отображается .... Здесь: http://www.people.cs.uchicago.edu/~soare/res/Geometry/geom.pdf
источник
Экстракторы это еще одно место, чтобы посмотреть. Например, статья Barak-Kindler-Shaltiel-Sudakov-Wigderson'04 дает (среди прочего) улучшенные построения графов Рамсея (проблема, которая была открыта некоторое время в дискретной математике).
источник
De Wolf и Друкер упомянуть в своем обзоре на квантовых доказательствах о неожиданной связи между квантовым запросом сложности и -аппроксимация симметричных функций полиномами.ϵ
источник
Конструкция расширителя Zig-Zag использовалась для построения различных интересных примеров групп с некоторыми неожиданными свойствами, см. Мешулам-Вигдерсон , Розенман-Шалев-Вигдерсон . Сама конструкция очень интересна с чисто математической точки зрения, так как она использовала совершенно другие инструменты (мотивированные CS-точкой зрения на энтропию) для построения расширителей, чем предыдущие конструкции. (Однако, пожалуй, наиболее известное приложение находится внутри алгоритма пространства журналов TCS- Reingold для ненаправленной связи .)
источник
Позвольте мне упомянуть еще пару приложений:
Возможно, самый важный вклад TCS в чистую математику - это искусство сокращений. Сокращение формы, используемой TCS в вычислительной сложности и других местах, представляет математическую парадигму / инструмент, который более развит в TCS по сравнению с другими областями математики.
Понятие вероятностного доказательства: здесь я не имею в виду вероятностный метод (который уходит корнями в математику, но имеет много применений к CS), а скорее тот факт, что математическое утверждение, такое как утверждение, требующее определенного числа, является простым, может получить доказательство "вне всякого разумного сомнения". Это концептуальный прорыв, пришедший из CS, хотя он еще не нашел применения в практике математики.
источник
В конструктивном доказательстве Мозера локальной леммы Ловаша используются идеи информатики, дается новое доказательство локальной леммы Ловаша и решается проблема, о которой люди думали уже довольно давно.
источник
Метод барьерных функций Батсона-Шпильмана-Шриваставы имел ряд применений в геометрии и функциональном анализе, возник в компьютерной науке и является очень оригинальной формой аргумента потенциальной функции, напоминающей метод пессимистических оценок. Более того, это противоречит общепринятому мнению, что анализ характеристического полинома случайных матриц неразрешим, и вместо этого лучше смотреть на моменты матрицы.
Метод барьерной функции был впервые разработан для доказательства существования (и построения в детерминистическом полиномиальном времени) спарсификаторов графов, которые сохраняют свои спектральные свойства. Такие sparsifiers были мотивированы алгоритмическими приложениями: по сути, любой алгоритм, который должен приблизительно вычислять срезы, может быть ускорен путем предоставления в качестве входных данных разреженной версии исходного ввода.
Однако, помимо спарсификаторов, этот метод имеет множество применений, многие из которых рассматриваются Ассафом Наором в этой статье . Некоторыми яркими примерами являются построение взвешенных графов расширителей, приближенные разложения Джона тождества с меньшим количеством точек, уменьшение размерности подмножеств / подпространств , версия принципа ограниченной обратимости и Цафрири. Для всех вышеперечисленных применений метод барьерных функций дает по существу жесткие границы, дает эффективный детерминистический алгоритм в дополнение к доказательству существования и часто обеспечивает более элементарное доказательство, чем предыдущие методы (хотя и не без сложных вычислений).ℓn1
Перенесемся в 2013 год, и метод барьерных функций на стероидах, дополненный механизмом чередования полиномов, был использован Маркусом, Шриваставой и Спилманом для решения одной из самых печально известных проблем функционального анализа - проблемы Кадисона-Зингера , Эта проблема возникает из фундаментальных вопросов математической физики, но она идет гораздо дальше - известно, что она эквивалентна десяткам задач по всей математике. Не говоря уже о том, что многие аналитики (в том числе Кадисон и Сингер) даже не думали, что проблема имеет положительное решение (цитируемое исследование Cassaza et al. Предполагает наличие возможных контрпримеров).
источник
Один из примеров, который приходит на ум, - это теорема вложения Хигмана и ее теоретико-групповые следствия.
Теорема Хигмана о вложении: группа G конечно порождена с рекурсивным представлением, если G является подгруппой конечно представленной группы.
(Обратите внимание, что левая часть эквивалентности имеет вычислительную составляющую, в то время как правая является чисто теоретико-групповой).
источник
Значение случайности , то, что считается «случайной последовательностью», и связанные вопросы были важны в математике, теории вероятностей и статистике на протяжении веков. Теоретическая информатика (и теория сложности) предлагает очень надежные глубокие и убедительные идеи для понимания случайности.
В то время как вероятностный метод начался в математике, дерандомизация, которая является важной математической концепцией, в основном разработана в CS.
Это связано с ответом Морица .
источник
Теория автоматов и алгебраичность
Теория автоматов дала некоторые интересные результаты для характеристики алгебраичности. Я упоминаю два из них со ссылками. Это ни в коем случае не является исчерпывающим.
2. Трансцендентные числа
Автоматические последовательности также используются для характеристики трансцендентных чисел. Например,
Конечно, первый пункт - это очень классический результат!
источник
источник
ИМХО TCS - это раздел математики, и я бы сказал, немного шире. Мы живем в алгоритмическом веке, почти каждый во всей человеческой деятельности изобретает / заново изобретает алгоритмы, в основном эвристику. Но некоторые из этих алгоритмов 1. хороши; 2. содержать (похоронить) ответы на глубокие математические вопросы; 3. Ждите профессионального математического анализа / улучшения / внимания. Мой личный опыт: потрясающая сила одной эвристики физики / машинного обучения, а именно аппроксимации Бете, в качестве техники доказательства. Основная проблема заключается в том, что возможные встречи такого рода в основном происходят в отрасли, где никого не волнуют эти не связанные с продуктом идеи / откровения.
источник