Я попробую это. Я собираюсь использовать оригинальную запись Яо. Таким образом, будет легче противопоставить его статью и его определения.
Пусть - конечный набор входных данных, и пусть - конечный набор детерминированных алгоритмов, которые могут не дать правильный ответ для некоторых входных данных. Пусть также если дает правильный ответ для , и противном случае. Также обозначим через количество запросов, сделанных на входе , или, что эквивалентно, глубину дерева решенийIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA
Средняя стоимость: учитывая распределение вероятности для , средняя стоимость алгоритма равна .dIA∈A0C(A,d)=∑x∈Id(x)⋅r(A,x)
Распределительная сложность: Пусть . Для любого распределения на входах пусть будет подмножеством заданным . Сложность распределения с ошибкой для вычислительной задачи определяется как ,λ∈[0,1]dβ(λ)A0β(λ)={A:A∈A0,∑x∈Id(x)⋅ϵ(A,x)≤λ}λPF1,λ(P)=maxdminA∈β(λ)C(A,d)
λ -толерантность: распределение в семействе является -толерантным, если .qA0λmaxx∈I∑A∈A0q(A)⋅ϵ(A,x)≤λ
Ожидаемая стоимость: для рандомизированного алгоритма пусть будет распределением вероятности, -толерантным к . Ожидаемая стоимость из для данного входа являются .RqλA0RxE(R,x)=∑A∈A0q(A)⋅r(A,x)
Рандомизированная сложность: пусть . Рандомизированная сложность с ошибкой равна .λ∈[0,1]λF2,λ=minRmaxx∈IE(R,x)
Теперь мы готовы идти в бизнес. То, что мы хотим доказать, - это распределение на входах и рандомизированный алгоритм (т. Е. Распределение на )dRqA0
Минимаксный принцип Яо для алгоритмов Монте-Карло
для .
maxx∈IE(R,x)≥12minA∈β(2λ)C(A,d)
λ∈[0,1/2]
Я буду следовать подходу, данному Фичем, Мейером и Хайде, Рагде и Вигдерсоном (см. Лемму 4). Их подход не дает характеристики для алгоритмов Лас-Вегаса (только нижняя граница), но этого достаточно для наших целей. Из их доказательства легко увидеть, что для любых иA0I
Утверждение 1. .maxx∈IE(R,x)≥minA∈A0C(A,d)
Чтобы получить правильные цифры там, мы сделаем что-то подобное. Учитывая, что распределение вероятностей заданное рандомизированным алгоритмом является толерантным к мы получаем, что
Если мы заменим семейство наqRλA0
λ≥maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥∑x∈Id(x)∑A∈A0q(a)⋅ϵ(A,x)=∑A∈A0q(a)∑x∈Id(x)⋅ϵ(A,x)≥minA∈A0{∑x∈Id(x)⋅ϵ(A,x)}.
A0β(2λ) Мы видим, что
λ≥maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥maxx∈I⎧⎩⎨∑A∈β(2λ)q(A)⋅ϵ(A,x)⎫⎭⎬≥∑x∈Id(x)∑A∈β(2λ)q(a)⋅ϵ(A,x)=∑A∈β(2λ)q(a)∑x∈Id(x)⋅ϵ(A,x)≥minA∈β(2λ){12∑x∈Id(x)⋅ϵ(A,x)},
где следует второе неравенство, потому что , а последнее неравенство дается определением где сумма, деленная на 2, не может быть больше, чем . Следовательно,
β(2λ)⊆A0β(2λ)λ
maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥12minA∈β(2λ){∑x∈Id(x)⋅ϵ(A,x)}.
Отметив, что отображается на а отображается на и п. 1 выше, теперь мы можем смело заменить функцию в вышеприведенном неравенстве на чтобы получить желаемое неравенство.ϵ{0,1}rNϵr(A,x)