Я работал над внедрением некоторых результатов вычислительной сложности в теоретическую биологию, особенно эволюцию и экологию , с целью быть интересным / полезным для биологов. Одна из самых больших трудностей, с которыми я столкнулся, заключается в обосновании полезности асимптотического анализа наихудшего случая для нижних оценок. Есть ли ссылки на длину статьи, которые оправдывают нижние оценки и асимптотический анализ наихудшего случая для научной аудитории?
Я действительно ищу хорошую ссылку, к которой я могу обратиться в своем письме, вместо того, чтобы идти через обоснования в ограниченном пространстве, которое у меня есть (так как это не центральный пункт статьи). Мне также известны другие виды и парадигмы анализа, поэтому я не ищу ссылку, в которой говорится, что наихудший случай - это «лучший» анализ (поскольку есть настройки, когда его очень мало), но это не так. совершенно бесполезный: он все еще может дать нам теоретически полезную информацию о поведении реальных алгоритмов на реальных входах. Также важно, что письмо предназначено для общих ученых и не только инженеры, математики или компьютерные ученые.
Например, эссе Тима Роггардена, представляющее экономистам теорию сложности, находится на правильном пути к тому, чего я хочу. Тем не менее, только разделы 1 и 2 являются релевантными (остальное слишком специфично для экономики), и предполагаемая аудитория немного более удобна для мышления, доказывающего теорему, чем большинство ученых [1] .
Детали
В контексте адаптивной динамики в эволюции я встретил два специфических типа сопротивления со стороны теоретических биологов:
[A] «Почему я должен заботиться о поведении для произвольного ? Я уже знаю, что геном имеет пар оснований (или, возможно, генов) и не более».
Это относительно легко отмахнуться от аргумента «мы можем представить, что мы будем ждать секунд, но не ». Но, более сложный аргумент может сказать, что «конечно, вы говорите, что заботитесь только о конкретном , но ваши теории никогда не используют этот факт, они просто используют, что он большой, но конечный, и мы изучаем с вашей теорией асимптотический анализ ».
[B] «Но вы только показали, что это сложно, создавая этот специфический пейзаж с помощью этих гаджетов. Почему я должен заботиться об этом, а не о среднем?»
Это более сложная критика для решения, потому что многие инструменты, которые люди обычно используют в этой области, исходят из статистической физики, где часто можно предположить равномерное (или другое конкретное простое) распределение. Но биология - это «физика с историей», и почти все не находится в равновесии или «типично», а эмпирических знаний недостаточнообосновать предположения о распределении по входу. Другими словами, я хочу аргумент, аналогичный тому, который используется против анализа среднего случая единообразного распределения в разработке программного обеспечения: «мы моделируем алгоритм, мы не можем построить разумную модель того, как пользователь будет взаимодействовать с алгоритмом или каково его распределение входов будет; это для психологов или конечных пользователей, а не для нас ". За исключением этого случая, наука не находится в положении, когда существует эквивалент «психологов или конечных пользователей», чтобы выяснить основные распределения (или, если это вообще имеет смысл).
Примечания и связанные вопросы
- Ссылка обсуждает когнитивные науки, но мышление схожи в биологии. Если вы просматриваете « Эволюцию» или « Журнал теоретической биологии» , вы редко увидите доказательство теоремы-леммы, и когда вы это сделаете, обычно это будет просто расчет, а не что-то вроде доказательства существования или сложной конструкции.
- Парадигмы для анализа сложности алгоритмов
- Другие виды анализа времени выполнения, кроме наихудшего, среднего и т. Д.?
- Экология и эволюция через алгоритмический объектив
- Почему экономисты должны заботиться о вычислительной сложности
источник
Ответы:
Моя личная (и предвзятая) точка зрения состоит в том, что асимптотический анализ наихудшего случая является историческим шагом к более практичным видам анализа. Поэтому, кажется, трудно оправдать практикующих.
Доказательство оценки для наихудшего случая часто проще, чем доказательство оценки даже для «хороших» определений среднего случая. Асимптотический анализ также часто намного проще, чем доказательство разумно ограниченных границ. Таким образом, асимптотический анализ в худшем случае - отличное место для начала.
Работа Дэниэла Спилмана и Шэнхуа Тенга по сглаженному анализу Симплекса кажется мне предвестником того, что может произойти, когда мы начнем лучше понимать форму проблемы: решение сначала наихудшего случая позволяет получить более тонкое понимание разработаны. Кроме того, как предложил Аарон Рот в комментариях, если «обычное» поведение системы значительно отличается от ее наихудшего случая, то система еще не полностью определена, и для улучшения модели требуется дополнительная работа. Поэтому выход за пределы наихудшего случая, как правило, представляется важной долгосрочной целью.
Что касается асимптотического анализа, он обычно служит для того, чтобы сохранить длинное и грязное доказательство в стороне от отвлекающих деталей. К сожалению, в настоящее время, похоже, нет способа вознаградить утомительную работу по заполнению деталей для получения фактических констант, так что редко кажется, что это делается. (Ограничения страниц также работают против этого.) Тщательный анализ деталей асимптотической границы привел к созданию реальных алгоритмов с хорошими оценками констант, поэтому я лично хотел бы увидеть больше такого рода работы. Возможно, если бы большее количество доказательств было оформлено с использованием систем помощников для доказательств, то константы можно было бы оценить с меньшими дополнительными усилиями. (Или ограничения на константы, по аналогии с оценкой Гауэрса для леммы регулярности Семереди, могут стать более рутинными.) Есть также способы доказать нижние оценки, свободные от констант, с использованием более явных моделей машин (таких как детерминированные конечные автоматы). Тем не менее, такие (почти) точные нижние границы для более общих моделей вычислений могут потребовать много работы или вообще быть недостижимыми. Кажется, это было сделано в 1958–1973 годах во время первого расцвета теории автоматов, но, насколько я могу судить, с тех пор в значительной степени остался один.
источник
Нижние границы и анализ наихудшего случая обычно не идут вместе. Вы не говорите, что алгоритм в худшем случае займет как минимум экспоненциальное время, поэтому он плохой. Вы говорите, что в худшем случае это может занять самое большее линейное время, и, следовательно, это хорошо. Первый вариант полезен только в том случае, если вы собираетесь запускать свой алгоритм на всех возможных входах, а не только на среднем входе.
Если вы хотите использовать нижние границы для демонстрации плохости, то вам нужен анализ лучшего случая или анализ среднего случая. Вы можете упростить вещи, полагаясь на точку зрения @ PeterShor, что худшее и среднее часто очень похожи, и дать подробный список алгоритмов, для которых это действительно так. (Пример: все классические сорта, кроме быстрой сортировки.)
Что касается демонстрации того, что асимптотика имеет значение по сравнению с постоянными входными данными и постоянными факторами, моя любимая статья на эту тему - «Программирование жемчужин: методы проектирования алгоритмов» Джона Бентли. Он представляет четыре различных решения простой задачи с массивами и демонстрирует, как линейный подход уничтожает кубический. Он называет свою таблицу «Тирания асимптотики» после термина, используемого физиками для неразрешимости уравнения ракеты. Я использую этот пример, чтобы мотивировать поиск лучших алгоритмов для студентов дошкольного образования.
Будет ли ученый, не являющийся специалистом по компьютерам, читать статью, содержащую код, и знать, чтобы пропустить подробности низкого уровня, чтобы получить общую картину? Я не знаю. Возможно, есть лучшее представление в другом месте. Но я думаю, что это достойный ресурс для цитирования.
И если они утверждают, что им нет дела до сколь угодно больших n, пусть они запускают рекурсивные незапамятные числа Фибоначчи на 3 * 10 9 пар оснований и говорят им, что это O (1), так как размер последовательности ДНК фиксирован. ;)
источник
Многие согласились с тем, что это важная тема для опроса / освещения, но, похоже, еще не так много. несколько ссылок различного стиля / охвата / аудитории / формальности не совсем так, как запрошено, но несколько близко (лучше всего видно онлайн до сих пор при среднем поиске, надеюсь услышать больше о каких-нибудь более хороших; больше примечаний ниже):
Сложность алгоритмов Аткинсона (увы, в статье только одна ссылка на биологию, но может быть достаточно на более общих научных / технических терминах)
Сложность и алгоритмы Дж. Диаз. 100 слайдов. широкий; в частности, можно было бы извлечь соответствующие.
Другими словами, существует ли своего рода введение / обзор / обзор теоретической линзы сложности в тесной комбинации / соединении / компаньоне с прогрессивной алгоритмической линзой в науке, что-то вроде «Теории сложности для ученых, инженеров и исследователей» ?
есть хорошие ссылки на первый «алгоритмический объектив», который вы процитировали, например, Papadimitriou, но это не очень удовлетворительный отзыв эксперта в данной области, который был написан на последнем «объективе сложности» ... пока (возможно, какая-то «элита» " Участник этого сайта будет рассматривать это как свой следующий проект книги или бумаги).
Отметим также, что существует множество ссылок на релевантность P против NP вне теории сложности и в других научных областях, которые могут быть в некоторой степени использованы для этих целей. добавит их в комментарии, если есть интерес.
источник