Мне кажется, что чрезвычайно актуальным вопросом для перспектив квантовых вычислений было бы то, как техническая сложность квантовых систем масштабируется в зависимости от размера. Значение, это легче построить -qubit компьютеров , чем один -qubit компьютера. На мой взгляд, это примерно аналогично тому факту, что аналитически проще решать проблемы тела, чем одну проблему тела, поскольку запутанность является главным мотивирующим фактором, стоящим за квантовыми вычислениями.1 n n 1 n
Мой вопрос заключается в следующем: кажется, что мы действительно должны заботиться о том, как «сложность» построения и управления квантовой системой из тел растет с ростом . Исправить архитектуру гейта или даже алгоритм - есть ли принципиальная трудность, возникающая из-за того, что кубитный компьютер является квантовой проблемой многих тел? И что с математической точки зрения, наше понимание того, как квантовые явления превращаются в классические явления, весьма скудно? Здесь трудность может быть определена любым количеством способов, и вопрос, который нас волнует, примерно, заключается в том, чтобы контролировать кубитную машину (то есть сохранять когерентность ее волновых функций) «всего» в сложнее, чем управлятьn n 1000 100 10 100 2 100 ! 100 100 кубитный автомат, или , илиили ? Есть ли у нас основания полагать, что это более или менее первое, а не второе?
источник
Ответы:
Это вопрос, о котором я думаю более 10 лет. В 2008 году я был студентом и сказал своему профессору квантовых вычислений, что хочу изучить «физическую сложность» выполнения квантовых алгоритмов, для которых «вычислительная сложность», как известно, выигрывает от квантовых вычислений.
Например, для поиска в Гровере требуется квантовые вентили в отличие отO(n)классических вентилей, но что если стоимость управления квантовыми вентилями масштабируется какn4,тогда как для классических вентилей это толькоn?O(n−−√) O(n) n4 n
Он сразу ответил:
Вот шаги, которые вам нужно предпринять:
Теперь вы можете понять, почему вы пришли сюда, чтобы задать вопрос, а ответа не было ни в одном учебнике:
Шаг 1 зависит от типа реализации (ЯМР, Фотоника, СКВИДЫ и т. Д.).
Шаг 2 очень сложный. Динамика без декогеренции была смоделирована без физического приближения для 64 кубитов , но немарковская, непертурбативная динамика с декогеренцией в настоящее время ограничена 16 кубитами .
Шаг 4 зависит от алгоритма. Таким образом, не существует «универсального масштабирования» физической сложности, даже при работе с конкретным типом реализации (например, ЯМР, фотоника, СКВИДы и т. Д.).
Шаг 5 зависит от выбора кода с исправлением ошибок.
Итак, чтобы ответить на два ваших вопроса конкретно:
Это зависит от вашего выбора на шаге 1 , и никто не смог пройти весь шаг от шага 1 до шага 3, пока не получил точную формулу для физической сложности по отношению к количеству кубитов, даже для конкретного алгоритма. Так что это все еще открытый вопрос, ограниченный сложностью моделирования динамики открытой квантовой системы.
источник
Сложность схемы
Я думаю, что первая проблема заключается в том, чтобы действительно понять, что подразумевается под «управлением» квантовой системой. Для этого может помочь задуматься о классическом случае.
Декогеренция
Продолжая комментарии,
Это делится на два режима. Для небольших квантовых устройств перед исправлением ошибок можно сказать, что мы находимся в режиме NISQ . Этот ответ , вероятно, наиболее актуален для этого режима. Однако, по мере того, как ваше устройство становится больше, отдача будет уменьшаться; становится все труднее выполнять инженерную задачу, просто добавляя еще несколько кубитов.
Что на самом деле является довольно убедительным, так это посмотреть, как изменяются коэффициенты в этих отношениях, когда ваша ошибка логического элемента становится все ближе и ближе к порогу исправления ошибок. Кажется, я не могу рассчитывать на подходящий расчет (я уверен, что Эндрю Стейн в какой-то момент сделал один. Возможно, это был разговор, на который я пошел), но они очень сильно взорвались, так что вы хотите работать с приличным запасом ниже порога.
Тем не менее, есть несколько предположений, которые необходимо сделать относительно вашей архитектуры, прежде чем эти соображения будут актуальны. Например, должен быть достаточный параллелизм; Вы должны быть в состоянии воздействовать на разные части компьютера одновременно. Если вы делаете только одну вещь за один раз, ошибки всегда будут накапливаться слишком быстро. Вы также хотите иметь возможность наращивать производственный процесс без ухудшения ситуации. Кажется, что, например, сверхпроводящие кубиты будут вполне хороши для этого. Их производительность в основном зависит от того, насколько точно вы можете сделать различные части схемы. Вы получаете это правильно для одного, и вы можете «просто» повторить много раз, чтобы сделать много кубитов.
источник
Таким образом, в некотором смысле «точность» может дать оценку того, насколько подвержен ошибкам процессор. Если вы использовали квантовый компьютер для вычисления, скажем, динамики химической реакции или любой другой проблемы, которая могла бы использовать суперпозицию для достижения квантового ускорения (или даже «квантового превосходства» в конечном итоге), на вас может повлиять декогеренция или даже то, как быстро вы достигнете суперпозиции. , может сыграть свою роль в безошибочной работе. «Точность» может дать оценку ошибки, независимо от того, используем ли мы 1 кубит или, скажем, 200 кубитов. Вы даже можете «спроектировать» гамильтониан, чтобы получить кубиты высокой точности, в адиабатическом случае, когда имеют место ошибки утечки.
Обратите внимание, что на практике частота ошибок + 99,5% весьма желательна для обеспечения эффективного исправления ошибок. Частоты ошибок могут быть такими, как считывание электронных спинов между кубитами до точности. В таком случае частота ошибок, составляющая 99,5% или 99,8% (достоверность типа пять или шесть сигма), потребует меньших накладных расходов (исправление ошибок) при масштабировании системы.
источник