Конкретное понимание различий между определениями PP и BPP

9

Я не совсем понимаю, как определяются PP и BPP . Пусть характеристическая функция для языка L . М - вероятностная машина Тьюринга. Верны ли следующие определения: B P P = { L : P r [ χ ( x ) M ( x ) ] 1χL
P P = { L : P r [ χ ( x ) M ( x ) ] > 1BPP={L:Pr[χ(x)M(x)]12+ϵxL, ϵ>0}
PP={L:Pr[χ(x)M(x)]>12}

Если определение неверно, пожалуйста, попробуйте внести минимальные изменения, чтобы сделать их правильными (т.е. не давать другого эквивалентного определения, которое использует счетную машину или некоторую модифицированную модель). Я не могу правильно различить условия вероятности по обоим определениям.

Некоторые конкретные примеры с четким пониманием тонких моментов были бы очень полезны.

DurgaDatta
источник

Ответы:

10

Это выглядит правильно для меня. Разница между БПП и ПП является то , что для БПП вероятность того, должна быть больше , чем константой , тогда как для PP это может быть 1 / 2 + 1 / 2 н . Таким образом, для проблем BPP вы можете сделать усиление вероятности с небольшим количеством повторений, тогда как для общих проблем PP вы не можете.1/2 1/2+1/2n

adrianN
источник
12

Ответ Вора дает стандартное определение. Позвольте мне попытаться объяснить разницу немного более интуитивно.

Пусть - вероятностный алгоритм с полиномиальным временем с ограниченной ошибкой для языка L, который правильно отвечает с вероятностью не менее p 1ML. Пустьxбудет входом, аn- размером ввода.p12+δxn

Что отличает произвольный алгоритм из Б Р Р алгоритма является положительным разрывом между вероятностью приема х L и вероятностью принятия х L . PPBPPxLxLСущественным моментом в является то, что зазор составляет не менее n - O ( 1 ) . Я попытаюсь объяснить, почему это различие является значительным и позволяет нам рассматривать B P P как эффективные алгоритмы (даже предполагаемые равными PBPPnO(1)BPPP) тогда как считается неэффективным (фактически P P содержит N P ). Все это происходит из этого разрыва.PPPPNP

Давайте начнем с рассмотрения более внимательно.PP

Обратите внимание, что если алгоритм использует не более случайных битов во время своего выполнения, а вероятность ошибки меньше, чем 2 - r ( n ), тогда вероятность ошибки фактически равна 0 , не может быть никакого выбора случайных битов, которые сделают алгоритм ответить неправильно.r(n)2r(n)0

Кроме того, алгоритм с временем выполнения не может использовать более t ( n ) случайных битов, поэтому, если ошибка вероятностного алгоритма с наихудшим временем выполнения t ( n ) лучше, чемt(n)t(n)t(n)

С помощью аналогичного аргумента мы можем показать, что случай, когда разница между вероятностью принятия и вероятностью принятия x L слишком мала, аналогичен случаю, когда у нас почти нет разницы, как в P P чехол.xLxLPP

Теперь давайте двигаться в направлении .BPP

В вероятностных алгоритмах мы можем повысить вероятность правильного ответа. Допустим, мы хотим повысить вероятность правильности до для, например, вероятности ошибки ϵ = 2 - n (экспоненциально малая ошибка).1ϵϵ=2n

Идея проста: запустить несколько раз и принять ответ большинства.M

Сколько раз мы должны запустить чтобы получить вероятность ошибки не более ϵ ? Θ ( δ - 1 lg ϵ ) раз. Доказательство приводится внизу этого ответа.MϵΘ(δ1lgϵ)

Теперь давайте примем во внимание, что алгоритмы, которые мы обсуждаем, должны быть полиномиального времени. Это означает, что мы не можем запустить больше, чем полиномиально много раз. Другими словами, Θ ( δ - 1 ln ϵ ) = n O ( 1 ) или прощеMΘ(δ1lnϵ)=nO(1)

δ1lgϵ=nO(1)

Это отношение классифицирует вероятностные алгоритмы с ограниченной ошибкой на классы в зависимости от их вероятности ошибки. Там нет никакой разницы между вероятностью ошибки быть быть 2 - п или положительная константа (т.е. не изменяется с п ) или 1ϵ2nn. Мы можем перейти от одного к другому, оставаясь внутри полиномиального времени.12nO(1)

Однако , если слишком мал, скажем , 0 , 2 - п , или даже п - Q , ( 1 ) , то мы не имеем способ повышения корректности вероятности и снижения вероятности ошибки достаточно , чтобы попасть в B P P .δ02nnω(1)BPP

Главное здесь то, что в мы можем эффективно уменьшить вероятность ошибки по экспоненте, поэтому мы почти уверены в ответах, и именно это заставляет нас рассматривать этот класс алгоритмов как эффективные алгоритмы. Вероятность ошибки может быть уменьшена настолько, что аппаратный сбой более вероятен, или даже метеорит, падающий на компьютер, более вероятен, чем ошибка с помощью вероятностного алгоритма.BPP

Это не верно для , мы не знаем никакого способа уменьшения вероятности ошибки, и у нас остается почти так, как будто мы отвечаем, бросая монетку, чтобы получить ответ (мы не полностью, вероятности не являются половиной и половина, но это очень близко к этой ситуации).PP


ϵ(12δ,12+δ)M Θ(δ1lgϵ)

NkMkk

xLxL

Pr{M(x) accepts}=p12+δ
Nkk

Xii0Xi

E[Xi]=Pr{Xi=1}=Pr{M(x) accepts}=p12+δ

Y=Σi=1kXiYk2

Pr{Nk(x) accepts}=Pr{Yk2}

Zμ

Pr{|Zμ|>αμ}<eα24μ

ZαμμαY<k2

E[Y]=E[Σi=1kXi]=Σi=1kE[Xi]=kpk2+kδ

Y<k2|Y(k2+kδ)|>kδ

Pr{|Ykp|>αkp}<eα24kp

ααkp=kδα=δp2δ2δ+1

Поэтому мы имеем

Pr{Y<k2}Pr{|Y(k2+kδ)|>kδ}Pr{|Ykp|>αkp}<eα24kp

и если вы сделаете расчеты, вы увидите, что

α24kpδ24δ+2k=Θ(kδ)

у нас есть

Pr{Y<k2}<eΘ(kδ)

ϵ

eΘ(kδ)ϵ

или другими словами

Θ(δ1lgϵ)k

NkkM

12

Кава
источник
7

Используя вашу запись:

BPP={L:M,0<c1/2xPr[χL(x)=M(x)]12+c}

PP={L:MxPr[χL(x)=M(x)]>12}

AdrianN указал на разницу, и вы также можете взглянуть на Википедию PP против BPP

Вор
источник