Есть ли какие-либо оценки того, насколько сложность квантовой инженерии зависит от размера?

12

Мне кажется, что чрезвычайно актуальным вопросом для перспектив квантовых вычислений было бы то, как техническая сложность квантовых систем масштабируется в зависимости от размера. Значение, это легче построить -qubit компьютеров , чем один -qubit компьютера. На мой взгляд, это примерно аналогично тому факту, что аналитически проще решать проблемы тела, чем одну проблему тела, поскольку запутанность является главным мотивирующим фактором, стоящим за квантовыми вычислениями.1 n n 1 nn 1nn 1n

Мой вопрос заключается в следующем: кажется, что мы действительно должны заботиться о том, как «сложность» построения и управления квантовой системой из тел растет с ростом . Исправить архитектуру гейта или даже алгоритм - есть ли принципиальная трудность, возникающая из-за того, что кубитный компьютер является квантовой проблемой многих тел? И что с математической точки зрения, наше понимание того, как квантовые явления превращаются в классические явления, весьма скудно? Здесь трудность может быть определена любым количеством способов, и вопрос, который нас волнует, примерно, заключается в том, чтобы контролировать кубитную машину (то есть сохранять когерентность ее волновых функций) «всего» в сложнее, чем управлятьn n 1000 100 10 100 2 100 ! 100 100nnn100010010 кубитный автомат, или , илиили ? Есть ли у нас основания полагать, что это более или менее первое, а не второе?1002100!100100

Кит Раш
источник
Ха, не знаю, что мой и должен был привести к ...
Кит Раш
Привет @KeithRush, неужели в первом предложении чего-то не хватает? Отличный вопрос, кстати.
MEE - Восстановить Монику
Абсолютно не дублируется, но я чувствую, что ответы на эти два вопроса тесно связаны между собой: Quantcomputing.stackexchange.com/questions/1803/…
agaitaarino

Ответы:

8

Это вопрос, о котором я думаю более 10 лет. В 2008 году я был студентом и сказал своему профессору квантовых вычислений, что хочу изучить «физическую сложность» выполнения квантовых алгоритмов, для которых «вычислительная сложность», как известно, выигрывает от квантовых вычислений.

Например, для поиска в Гровере требуется квантовые вентили в отличие отO(n)классических вентилей, но что если стоимость управления квантовыми вентилями масштабируется какn4,тогда как для классических вентилей это толькоn?O(n)O(n)n4n

Он сразу ответил:

«Конечно, ваша идея физической сложности будет зависеть от реализации»

nn

Вот шаги, которые вам нужно предпринять:



FnFn

E

Теперь вы можете понять, почему вы пришли сюда, чтобы задать вопрос, а ответа не было ни в одном учебнике:

Шаг 1 зависит от типа реализации (ЯМР, Фотоника, СКВИДЫ и т. Д.).
Шаг 2 очень сложный. Динамика без декогеренции была смоделирована без физического приближения для 64 кубитов , но немарковская, непертурбативная динамика с декогеренцией в настоящее время ограничена 16 кубитами .
Шаг 4 зависит от алгоритма. Таким образом, не существует «универсального масштабирования» физической сложности, даже при работе с конкретным типом реализации (например, ЯМР, фотоника, СКВИДы и т. Д.).
Шаг 5 зависит от выбора кода с исправлением ошибок.

Итак, чтобы ответить на два ваших вопроса конкретно:

100101002100!100100

Это зависит от вашего выбора на шаге 1 , и никто не смог пройти весь шаг от шага 1 до шага 3, пока не получил точную формулу для физической сложности по отношению к количеству кубитов, даже для конкретного алгоритма. Так что это все еще открытый вопрос, ограниченный сложностью моделирования динамики открытой квантовой системы.

Есть ли у нас основания полагать, что это более или менее первое, а не второе?

n!n100n

user1271772
источник
1
nρ(C2)nnρn
1
Что вы подразумеваете под "бесконечно малой динамикой"? Векторное поле определяется динамикой, оцениваемой в какой точке? Рассчитать норму чего (используя метрическое тензорное поле Фишера)? Вы имеете в виду рассчитать норму векторного поля? Возможно, это хорошая идея, но если это то, что, как я думаю, вы имеете в виду, то есть смотреть на декогерентность в течение бесконечно малого времени при t = 0, я не знаю, насколько это ценно в качестве метрики, потому что это занимает время достижения полной декогеренции, потому что сила декогеренции характеризуется функцией отклика ванны, которая является интегралом по t.
user1271772
1
(Mn,g)nMnρTρMnr(ρ), Если вы хотите супремум по всем возможным состояниям, делайте градиентное восхождение. Это дает очень грубую оценку скорости декогеренции, учитывая векторное поле, определяющее динамику. Это может быть использовано для ограничения декогеренции даже в большее время из-за этой скорости.
Хусейн
4

Сложность схемы

Я думаю, что первая проблема заключается в том, чтобы действительно понять, что подразумевается под «управлением» квантовой системой. Для этого может помочь задуматься о классическом случае.

n2n222n2n/nk2n

nϵO(n2)затем надлежащим образом управлять машиной с 1000 кубитами становится в 10000 раз сложнее, чем управлять машиной с 10 кубитами, в том смысле, что вам нужно защитить ее от декогеренции на гораздо более длительный срок, внедрить гораздо больше шлюзов и т. д.

Декогеренция

Продолжая комментарии,

Давайте рассмотрим конкретный алгоритм или конкретный вид схемы. Мой вопрос может быть переформулирован - есть ли какие-либо теоретические или практические указания на то, как (инженерная) проблема предотвращения декогеренции масштабируется, когда мы масштабируем число этих цепей?

Это делится на два режима. Для небольших квантовых устройств перед исправлением ошибок можно сказать, что мы находимся в режиме NISQ . Этот ответ , вероятно, наиболее актуален для этого режима. Однако, по мере того, как ваше устройство становится больше, отдача будет уменьшаться; становится все труднее выполнять инженерную задачу, просто добавляя еще несколько кубитов.

pppp1%O(logϵ)ϵO(logϵ)масштаб. Что касается конкретных чисел, вас могут заинтересовать виды вычислений, которые выполнил Эндрю Стейн: см. Здесь (хотя цифры, возможно, сейчас можно немного улучшить).

Что на самом деле является довольно убедительным, так это посмотреть, как изменяются коэффициенты в этих отношениях, когда ваша ошибка логического элемента становится все ближе и ближе к порогу исправления ошибок. Кажется, я не могу рассчитывать на подходящий расчет (я уверен, что Эндрю Стейн в какой-то момент сделал один. Возможно, это был разговор, на который я пошел), но они очень сильно взорвались, так что вы хотите работать с приличным запасом ниже порога.

Тем не менее, есть несколько предположений, которые необходимо сделать относительно вашей архитектуры, прежде чем эти соображения будут актуальны. Например, должен быть достаточный параллелизм; Вы должны быть в состоянии воздействовать на разные части компьютера одновременно. Если вы делаете только одну вещь за один раз, ошибки всегда будут накапливаться слишком быстро. Вы также хотите иметь возможность наращивать производственный процесс без ухудшения ситуации. Кажется, что, например, сверхпроводящие кубиты будут вполне хороши для этого. Их производительность в основном зависит от того, насколько точно вы можете сделать различные части схемы. Вы получаете это правильно для одного, и вы можете «просто» повторить много раз, чтобы сделать много кубитов.

DaftWullie
источник
1
По сути, это то, что я имел в виду, но исключил алгоритмическую сложность и сосредоточился на сложности разработки, особенно предотвращая декогеренцию. Давайте рассмотрим конкретный алгоритм или конкретный вид схемы. Мой вопрос может быть переформулирован - есть ли какие-либо теоретические или практические указания на то, как (инженерная) проблема предотвращения декогеренции масштабируется, когда мы масштабируем число этих цепей?
Кит Раш
@KeithRush ОК! Теперь я начинаю понимать, что вам нужно :) по сути, это вычислительная сложность отказоустойчивости - каковы временные и пространственные накладные расходы для получения определенного количества высококачественных логических кубитов - и это то, что разработали люди довольно осторожно Я постараюсь выкопать соответствующую информацию завтра, если кто-то другой не побьет меня.
DaftWullie
2

mn

Таким образом, в некотором смысле «точность» может дать оценку того, насколько подвержен ошибкам процессор. Если вы использовали квантовый компьютер для вычисления, скажем, динамики химической реакции или любой другой проблемы, которая могла бы использовать суперпозицию для достижения квантового ускорения (или даже «квантового превосходства» в конечном итоге), на вас может повлиять декогеренция или даже то, как быстро вы достигнете суперпозиции. , может сыграть свою роль в безошибочной работе. «Точность» может дать оценку ошибки, независимо от того, используем ли мы 1 кубит или, скажем, 200 кубитов. Вы даже можете «спроектировать» гамильтониан, чтобы получить кубиты высокой точности, в адиабатическом случае, когда имеют место ошибки утечки.

Обратите внимание, что на практике частота ошибок + 99,5% весьма желательна для обеспечения эффективного исправления ошибок. Частоты ошибок могут быть такими, как считывание электронных спинов между кубитами до точности. В таком случае частота ошибок, составляющая 99,5% или 99,8% (достоверность типа пять или шесть сигма), потребует меньших накладных расходов (исправление ошибок) при масштабировании системы.

user3483902
источник