и - два основных класса вероятностной сложности.
- это класс языков, определяемых вероятностными алгоритмами Тьюринга за полиномиальное время, где вероятность возврата неправильного ответа ограничена, т. Е. Вероятность ошибки не превышает (для случаев ДА и НЕТ).
С другой стороны, алгоритмы можно рассматривать как те вероятностные алгоритмы, которые никогда не возвращают неправильный ответ, всякий раз, когда они возвращают ответ, он является правильным. Однако их время выполнения не ограничено полиномом, они работают в ожидаемом полиноме.
Пусть - класс языка, определяемый вероятностными алгоритмами с нулевой вероятностью ошибки и ожидаемым временем выполнения . Они также называются алгоритмами Лас-Вегаса и .
Мой вопрос: что лучше всего знать симуляцию алгоритмов с использованием алгоритмов Лас-Вегаса? Можем ли мы смоделировать их в субэкспоненциальном ожидаемом времени? Есть ли какое-либо известное улучшение по сравнению с обычным моделированием грубой силы, которое занимает экспоненциальное время?
Более формально, знаем ли мы, что или для некоторого ?
Ответы:
Во- первых, заметим , что если для некоторой константы С , то Б Р Р ≠ Н Е Х Р . (Доказательство - недетерминированная иерархия времени.) Таким образом, доказательство такого включения было бы значительным не только потому, что это улучшенное моделирование, но также дало бы первый прогресс в рандомизированных нижних границах времени за десятилетия.BPP⊆ZPTIME[2nc] c BPP≠NEXP
Далее рассмотрим классPromiseBPP , для которых следующая проблема является « -трудной»:PromiseBPP
Обратите внимание, что даже доказательство также открыто, и доказательство , которое также подразумевало бы более низкие оценки: Кабанец и Импальяццо 2004, если полиномиальная идентичность тестирование ( проблема ) находится в для всех , тогда у нас есть нижние оценки для постоянного или . Недавно (выйдя в STOC'13) я безоговорочно доказал, что либо или имеетc o R P Z P T I M E [ 2 n ε ] ε > 0 N E X P B P P ⊆ i o Z P T I M E [ 2 n ε ] / n ε R T I M ERP⊆ZPTIME[2nε] coRP ZPTIME[2nε] ε>0 NEXP BPP⊆ioZPTIME[2nε]/nε n cRTIME[2n] nc размерная схема, построенная по методу «легкого свидетельства» Кабанца. Это подразумевает две вещи:
Существует такой, что для всех , безусловно находится в - это примерно безусловный дерандомизация в которую мы знаем до сих пор.c ε>0 RP ioZPTIME[2nε]/nc RP/BPP ZPP
Чтобы начать интересное субэкспоненциальное моделирование , вы «только» должны предположить, что не имеет схем фиксированного полиномиального размера.BPP RTIME[2n]
источник
Это зависит от того, какие предположения вы готовы сделать.
При определенных предположениях о твердости, а именно , вы получите . Это, в частности, подразумевает, что , и, следовательно, что каждый язык принимается машиной Лас-Вегаса (см. «P = BPP, если E не имеет субэкспоненциальных цепей: дерандомизацию леммы XOR», Impagliazzo и Wigderson).E⊈SIZE(2εn) P=BPP BPP=ZPP L∈BPP
Вы также можете сделать более мягкое предположение о твердости, а именно, что , и получить (см. Лемму 46 в "В поисках Легкий свидетель: экспоненциальное время против вероятностного полиномиального времени (Импальяццо, Кабанец и Вигдерсон).ZPE⊈io−DTIME(2εn) BPP=ZPP
источник
За исключением каких-либо достижений в дерандомизации, мне кажется, что требование, чтобы машина Лас-Вегаса не делала ошибок, было критически важным, так что в этом случае случайность вообще ничтожна.
Для языка BPP определяется подходящим алгоритмом , который действует на входы и случайную строку представляющую При случайном выборе критерий с нулевой ошибкой подразумевается, что машина Лас-Вегаса должна точно определить, какой из двух случаев . Если нам не дают никакой дополнительной информации об , то это, по сути, проблема обещания оракула: дано оракулу вычисление и дано обещание, чтоL A x∈{0,1}n r∈{0,1}N(n)
Хотя машина Лас-Вегаса может использовать случайные методы, если мы действительно вынуждены рассматривать как оракула, мы можем видеть, что единственной стратегией, доступной машине Лас-Вегаса, является проведение относительно тщательного (хотя и не исчерпывающего) обзора случайные строки , чтобы увидеть, какой ответ дается для каждого. Он может быть уверен, только если найдет более различных строк которые все приводят к одному и тому же результату; в противном случае, с небольшой (но ненулевой!) вероятностью, это может быть неудачно и получить нерепрезентативную выборку возможных выходных данных. Чтобы получить нулевую ошибку, он должен выбрать не менее входов .A′ r 2N(n)/3 r 2N(n)/3 r
Поскольку машина Лас-Вегаса должна проверять по крайней мере постоянную часть всех возможных случайных строк , асимптотически мы ничем не лучше, чем если бы мы детерминистически протестировали все возможные случайные строки. Мы не получаем никаких асимптотических преимуществ при случайном моделировании алгоритмов BPP в условиях с нулевой ошибкой, помимо того, что мы можем сделать детерминистически методом грубой силы.r
Обратите внимание, что этот же аргумент приводит к разделению оракула между BPP и ZPP , то есть существует оракул такой что потому что алгоритм ZPP требует экспоненциального времени, в то время как Алгоритм BPP может решить вопрос о оракуле в одном запросе и добиться успеха с ограниченной ошибкой. Тем не менее, это не говорит вам больше, чем вы уже подозревали (что накладные расходы на моделирование могут быть хуже, чем полиномиальные) или что асимптотика так же плоха, как наивное детерминированное моделирование.A
источник