O brilho e a miséria da computação quântica

Em 2019, pesquisadores do Google anunciaram que o protótipo de computador quântico Sycamore de 53 qubits que eles criaram executa em 200 segundos a quantidade de cálculos que um dos supercomputadores mais poderosos da época, o IBM Summit (que incluía 9.216 CPUs e 27.648 GP), faria passaram cerca de 10 mil anos. Em outras palavras, foi demonstrado um aumento na velocidade da computação quântica (comparada às produzidas por máquinas avançadas baseadas na arquitetura von Neumann) em cerca de 158 milhões de vezes.

Parece tão inspirador que surge uma única pergunta: por que, nos quase três anos que se passaram desde aquele momento, os computadores quânticos ainda não começaram a substituir as máquinas clássicas – pelo menos da lista dos supercomputadores mais poderosos do mundo?

Armadilha para captura de íons positivos, que atuam como qubits sob a influência da radiação laser em alto vácuo (fonte: Universidade de Chicago)

⇡#Onde está a lógica?

É claro que a nova tecnologia exige investimentos consideráveis, mas se garantir, além disso, um aumento de 158 milhões de vezes no poder de computação, o que o capitalista são (não no sentido abusivo, mas no sentido puramente econômico do termo) permitirá ser impedido de investir em um desenvolvimento tão promissor?

Por que, então, o Congresso dos EUA aprovou recentemente a alocação de US$ 52 bilhões para a construção de novas instalações de produção de semicondutores no país? Não é isso, à luz de avanços tão convincentes na computação quântica, como investir em novas coudelarias e fábricas de carroças na década de 1930, em vez de construir estradas de asfalto e postos de gasolina para motores de combustão interna?

Resfriar um computador baseado no processador quântico IBM Eagle a temperaturas próximas ao zero absoluto requer um super-resfriador real (Fonte: IBM)

E, afinal, o progresso no campo da computação quântica desde então não parece estar marcando tempo. Nos últimos anos, a IBM introduziu o chip quântico Eagle, que inclui 127 qubits – assim, pela primeira vez na história, o número de qubits incluídos em uma única unidade de computação excedeu cem. A startup QuEra Computing, criada por físicos da Universidade de Harvard e do Massachusetts Institute of Technology, anunciou a criação de um simulador quântico de 256 qubits. Por fim, o próprio Google continua aprimorando o computador quântico Sycamore, aprimorando os mecanismos de correção de erros e, assim, conquistando novos patamares de desempenho.

O nó de computação principal do Sycamore parece mais do que impressionante (fonte: Google)

No entanto, no futuro previsível, os computadores semicondutores claramente não vão desistir de suas posições: embora as próximas conquistas na frente quântica sejam proclamadas com regularidade invejável, as boas e velhas máquinas baseadas na arquitetura de von Neumann continuam sendo a principal ferramenta de computação .

Além disso, a notória tarefa que Sycamore lidou tão triunfantemente em 2019 acabou não sendo tão insuportável para computadores clássicos: Pan Zhang e colegas do Instituto de Física Teórica da Academia Chinesa de Ciências mostraram recentemente que nem mesmo a mais poderosa mineração farm com uma dúzia e meia de adaptadores gráficos para consumidores precisarão de cerca de 15 horas para resolvê-lo. Qualquer supercomputador da lista dos 100 melhores do mundo teria o suficiente para isso e algumas dezenas de segundos.

Afinal, pode um computador quântico (digamos que esteja à esquerda) em um futuro próximo ultrapassar um computador da arquitetura von Neumann? (fonte: La boite verte)

Acontece que os especialistas do Google estavam sonhando três anos atrás? Não é bem assim: o grupo de Pan Zhang enfatiza que a eficiência energética de um computador quântico ao resolver um problema de teste é de fato incomensuravelmente maior do que a de um computador semicondutor, e a principal razão para a avaliação incorreta do desempenho de computadores tradicionais neste caso específico reside no uso de não o algoritmo mais ótimo.

Mesmo externamente, o chip Sycamore de 54 qubits é notavelmente diferente dos chips semicondutores usuais que operam no paradigma da lógica binária (fonte: Google)

Outra coisa é que os cálculos feitos por Sycamore durante esses mesmos 200 segundos não foram precisos: o computador quântico não procurou propositalmente a única resposta correta, mas eliminou as obviamente incorretas e, portanto, o erro estimado do resultado obtido por ele foi cerca de 0,2%.

E agora este é o ponto fundamental. A precisão dos cálculos sequenciais em um computador clássico é essencialmente absoluta. Embora em cálculos reais ainda seja impossível evitar problemas com arredondamentos e números irracionais, a precisão real é determinada pela capacidade de dígitos das variáveis ​​usadas pelo programa – portanto, o erro do resultado, mesmo para cálculos cotidianos, não excede dez milésimos de por cento.

Desenho artístico (com os feixes de tubos separados para maior clareza) da colocação de um processador quântico nas profundezas de Sycamore (fonte: Google)

Os computadores quânticos, por outro lado, operam de acordo com um princípio diferente: eles não resolvem o problema sequencialmente, executando um determinado algoritmo passo a passo, mas simultaneamente realizam um grande número de cálculos com parâmetros diferentes de acordo com o mesmo esquema, de modo que no final, entre o monte de respostas recebidas, resta apenas selecionar mais ou menos fiéis.

É essa característica fundamental da computação quântica que atua ao mesmo tempo como sua principal vantagem sobre os clássicos e como a vulnerabilidade mais grave – devido à qual, de fato, os computadores von Neumann baseados no semicondutor VLSI ainda continuam operando em data centers em todo o mundo . E por muito, muito tempo, esse estado de coisas não mudará.

O primeiro computador quântico Q System One comercial do mundo (2019, 20 qubits) está alojado em uma caixa de design fascinante – um cubo de 9 pés (quase 2,75 m) que esconde um poderoso sistema de refrigeração (Fonte: IBM)

⇡#100% analogia natural

É importante entender que a computação quântica é qualitativamente diferente da computação clássica. A evolução de máquinas mecânicas para calculadoras em tubos de rádio e dessas para transistores foi quantitativa: a essência da abordagem de von Neumann para a organização dos cálculos não mudou, os algoritmos de fato permaneceram os mesmos. A própria ideia de criar computadores quânticos nasceu não da necessidade de mais uma vez acelerar a execução de algoritmos clássicos, mas da necessidade de modelar adequadamente fenômenos físicos reais, levando em consideração os efeitos quânticos.

Uma ilustração “visual” típica da diferença entre um bit binário e um qubit. Tudo parece estar claro, mas absolutamente nada está claro (fonte: Medium)

Quase a data exata em que o termo “computador quântico” foi proposto é conhecida. Em 1981, uma conferência sobre física e computação foi realizada no Instituto de Tecnologia de Massachusetts, na qual o próprio Richard Feynman, cujo nome provavelmente é conhecido por qualquer pessoa que estivesse pelo menos superficialmente interessado em física quântica, deu uma palestra “Simulating Physics” (Simulando Física Física). O cientista formulou e fundamentou o princípio mais importante sobre o qual um sistema de computação projetado para simular fenômenos quânticos reais deve se basear: completa semelhança com a natureza (“O computador fará exatamente o mesmo que a natureza”).

Em outras palavras, a simulação numérica de fenômenos quânticos requer um sistema baseado em princípios quânticos. Como um pesquisador consciencioso, Feynman se referiu em seu relatório não apenas ao teorema fundamental de J. S. Bell (publicado pela primeira vez em 1964) sobre a irreprodutibilidade dos fenômenos da mecânica quântica usando ferramentas de computação clássica, mas também a dois trabalhos posteriores sobre este tópico – por trás do “cortina de ferro” – “Modelos termodinâmicos de processamento de informação” de R.P. Poplavsky (1975) e “Computável e não computável” de Yu.I. computadores tradicionais devido à extrema complexidade da algoritmização de fenômenos quânticos (o princípio da superposição, em primeiro lugar).

Richard Feynman explica a física quântica nos dedos, 1967 (fonte: Los Angeles Times)

No final, mesmo que não toquemos na física quântica, mas simulemos simplesmente o comportamento de grandes conjuntos de partículas bastante clássicas, as limitações da arquitetura de von Neumann se fazem sentir de forma mais que inequívoca. Digamos, se as partículas R podem ocupar N posições no espaço, então todo o espectro de estados de tal sistema é definido como NR (N elevado a R) – então mesmo para os supercomputadores mais modernos, a emulação adequada de processos em tal sistema com R e N da ordem de apenas 100 já é uma tarefa assustadora.

A característica mais importante do processo quântico, sua diferença fundamental dos fenômenos que nos são familiares no macrocosmo circundante, é o princípio da superposição (mais precisamente, o princípio da existência de uma superposição de estados). Este princípio implica a possibilidade de encontrar um sistema quântico em todo o espectro de estados mutuamente exclusivos disponíveis a ele ao mesmo tempo – até que seu estado seja medido por um observador, o que levará ao colapso (colapso) do sistema quântico em algum um inequívoco. Aquele mesmo gato de Schrödinger, sim.

«Sr. Schrödinger? Senhor? Tem certeza?” (fonte: Pixabay)

Muitas vezes, em uma apresentação popular, a sobreposição “para melhor assimilação por um público despreparado” é substituída por estocástica, aleatoriedade. Digamos como explicar claramente que um determinado objeto quântico, capaz de aparecer em estados finais discretos 0 ou 1 após a medição, não está apenas em um desses estados, mas também em qualquer uma de suas superposições até o momento dessa medição, ou seja, combinação linear com certos coeficientes, e ao mesmo tempo?

A analogia com uma moeda é geralmente usada aqui para ilustração. Lançado ao ar, ele gira rapidamente e, portanto, é impossível determinar se terminará cara ou coroa: aqui, dizem eles, esse estado de rotação é um análogo da superposição quântica. No momento da medição – quando a moeda caiu na palma da mão do experimentador – um dos estados limites discretos, “cara” ou “coroa”, é fixo.

O ponto fraco dessa analogia é que, embora a moeda gire no ar de maneira complexa, especialmente se for astutamente torcida ao ser lançada, a qualquer momento sua projeção em um plano horizontal – quando vista de cima – ainda mostra quase inequivocamente cara ou Corôa. Exceto por aqueles raros momentos, é claro, quando ela fica no limite.

Jogue uma moeda e afirme que você entende as leis do mundo quântico (fonte: Unsplash)

Para uma representação adequada da superposição quântica, como enfatizado por Feynman e seus predecessores, é preciso aceitar o fato de que não há análogos diretos de sistemas mecânicos quânticos no macrocosmo familiar a nós. É inútil tentar compreender a essência de um fenômeno que depende não apenas de alguns fatores internos objetivos, mas também se alguém está assistindo ou não no momento. E aqueles que pretendem seriamente entender pelo menos o básico dos princípios de construção e operação de computadores quânticos terão que dominar as ferramentas específicas dessa área, mesmo no nível mais básico.

⇡#Complexo – não necessariamente complexo

Um bit, do ponto de vista da matemática computacional clássica, é um sistema capaz de estar em apenas um dos dois estados discretos possíveis: “0” ou “1”. No entanto, a partir da experiência da vida cotidiana, entendemos intuitivamente que nada de contínuo existe na natureza: mesmo uma chave seletora mecânica não se move da posição superior para a inferior infinitamente rapidamente – a comutação leva um certo tempo.

A física quântica é simples, elegante e, o mais importante, matematicamente impecavelmente rigorosa (fonte: Thought Co.)

O mesmo vale para os circuitos semicondutores: se o FET estiver fechado (não passa corrente), isso pode ser interpretado como “0”, aberto (corrente flui) – “1”. No entanto, quando uma tensão de controle é aplicada à porta, o zero também não se transformará em um imediatamente: a corrente no canal aumentará à medida que a densidade das cargas elétricas que passam por ele aumentar, e somente algum tempo após a abertura da porta (o que, a propósito, também não ocorre instantaneamente) a corrente se tornará suficiente para o sistema interpretá-la como um “1” confiável.

Na mecânica quântica, tudo é fundamentalmente diferente: não há nada contínuo – mas há uma superposição. Os estados finais (medidos por um observador) de um sistema quântico – a direção do spin do elétron, a polarização do fóton, os estados de energia do oscilador anarmônico – são fixados instantaneamente e sem ambiguidade durante a medição, sem períodos e valores de transição. Ao mesmo tempo, é possível determinar com precisão o estado de um sistema quântico apenas no momento da medição: antes disso, representa a superposição mencionada acima (ou sobreposição: uma soma ponderada com pesos definidos de maneira especial) de dois estados limites mutuamente exclusivos.

Às vezes, os artistas, ao ilustrar artigos populares sobre fenômenos e objetos quânticos, honestamente se esforçam para retratar o inimaginável (fonte: Instituto de Estudos Avançados de Frankfurt)

Seguindo o proeminente físico teórico Paul Dirac, esses estados limites são geralmente denotados como |0〉 e |1〉, de modo que fica imediatamente claro que estamos falando de um sistema quântico com vetores de estado.

Para reproduzir (simular) tal sistema usando uma ferramenta computacional, que chamaremos de computador quântico, em vez da implementação clássica de bits – que por razões óbvias não é adequada aqui – bits quânticos, ou qubits (q-bits, qubits) será necessário. Um qubit é um sistema quântico com estados limites |0⟩ e |1⟩, descritos — de acordo com o princípio da superposição — pela função de onda |ψ⟩:

|ψ⟩ = c0|0⟩ + c1|1⟩. {1}

Quais devem ser os coeficientes c0 e c1? Quase nenhum: estamos descrevendo um qubit com valores limitantes |0⟩ e |1⟩, por isso é ilógico ir além de seus limites (não importa como o próprio conceito de “limite” seja interpretado no quadro da mecânica quântica) da função de onda.

Dois vetores de estado qubit básicos, na forma de uma combinação linear (soma ponderada) da qual qualquer um de seus estados admissíveis pode ser representado

É bastante óbvio (precisamente pelo fato de que nos casos limites a função de onda se transformará em |0⟩ ou em |1⟩) que c0 e c1 devem ser normalizados, ou seja, devem mudar, além disso, mutuamente consistentes, módulo valores que variam de 0 a 1, aproximadamente como os catetos de um triângulo retângulo inscrito em um círculo, cuja hipotenusa coincide com o diâmetro:

|C0|2 + |c1|2 = 1. {2}

Aqui, um significado físico bastante claro desses coeficientes aparece – mais precisamente, os quadrados de seus módulos (observe que na fórmula {2} as linhas verticais são as designações dos módulos de números que não estão relacionados à notação de Dirac) : esta é a probabilidade de encontrar um determinado qubit no estado limite correspondente, ou seja, |0⟩ ou |1⟩.

Analogia trigonométrica entre os módulos quadrados de autovetores qubit e a probabilidade de encontrá-lo em um estado ou outro

Mas por que estamos falando de módulos? Sim, porque os coeficientes c0 e c1 são números complexos. Estritamente falando, o próprio Dirac definiu o estado de um sistema quântico como um vetor ket – um raio em um espaço de Hilbert separável -, mas seria realmente supérfluo mergulhar nas sutilezas da teoria dos conjuntos dentro da estrutura de material relativamente popular.

É importante que o desejo de usar números complexos (por toda a sua aparente falta de naturalidade do ponto de vista da experiência cotidiana dos habitantes do macromundo) não seja um capricho dos físicos teóricos, mas uma manifestação das propriedades fundamentais de nosso Universo como um todo. O fato é que, de acordo com o teorema fundamental da álgebra, apenas no espaço dos números complexos qualquer polinômio de grau n (com coeficientes complexos em cada um dos termos) tem exatamente n raízes.

Esta já é uma representação esquemática mais correta de um qubit como uma entidade matemática (e não apenas como uma esfera com pontos e linhas obscuras), mas levará algum esforço para descobrir o que é o que aqui (fonte: Medium.com)

Como é necessário que a equação {1}, um polinômio típico de primeiro grau, tenha solução em todos os casos, são os números complexos que devem ser usados ​​- embora de fato, em várias aplicações práticas, os coeficientes c0 e c1 ainda será real. Simplesmente porque os números reais que são familiares e compreensíveis no macrocosmo nada mais são do que um subconjunto de números complexos.

⇡#E novamente – computação analógica

A validade do conhecido provérbio estudantil “A matemática se torna realmente complicada quando os números desaparecem dela” é plenamente sentida por aqueles que ousaram descobrir em que fundamentos se baseia o próprio conceito de computação quântica. Ajuda muito aqui que a matemática – como uma ciência que opera com entidades abstratas puras, sem referência ao mundo material bruto – seja densamente permeada de analogias, às vezes paradoxais, às vezes incrivelmente belas. Para uma melhor compreensão dos qubits como objetos matemáticos, uma analogia também foi encontrada – e novamente da trigonometria, curiosamente.

Quase o mesmo desenho de um pouco mais cedo – mas agora esta é a identidade trigonométrica básica aplicada a um triângulo retângulo com uma unidade de hipotenusa

Assim, um análogo direto da equação {2}, na qual, lembramos, aparecem coeficientes interdependentes normalizados, pode ser considerada a principal identidade trigonométrica – uma aplicação ingênua do teorema de Pitágoras a um triângulo retângulo com uma unidade hipotenusa:

Cos²(θ/2) + sen²(θ/2) = 1. {3}

Qualquer designação do ângulo pode ser tomada; θ/2 é tomado aqui apenas por conveniência e beleza dos cálculos subsequentes. Agora vamos lembrar novamente que os coeficientes c0 e c1 (com os quais agora comparamos o cosseno e o seno de um certo ângulo por algum capricho, embora justificado) são números complexos. E estes, por sua vez, podem ser representados como vetores no plano complexo, onde o eixo das abcissas é real e o eixo das ordenadas é imaginário. Então o número complexo P = a + ib, cuja parte real é igual a a, e a parte imaginária é b, corresponderá a um vetor que emerge da origem das coordenadas, apontando para o ponto (a, b).

Um número complexo no plano complexo pode ser representado tanto em coordenadas retangulares quanto em coordenadas polares – como é mais conveniente.

Mas o mesmo vetor pode ser representado não em coordenadas retangulares, mas em coordenadas polares: então P = A * eiφ, onde A² = a² + b² (A é o módulo do número complexo), e φ é a chamada fase, cuja tangente é igual ao quociente da divisão de b por a no triângulo retângulo resultante.

Voltamos à função de onda: temos as partes real e imaginária do número complexo – esses são os coeficientes c0 e c1, e com base na parametrização dada pela fórmula {3}, é óbvio que os limites da mudança de o ângulo φ (no nosso caso, θ/2), qualquer que seja o que não seja denotado, deve se estender de 0 a π radianos. Se φ exceder π, então um dos módulos será negativo, o que contradiz o próprio significado matemático deste conceito (o comprimento de um vetor pode ser zero no caso degenerado, mas não negativo de forma alguma – mesmo para um número complexo).

Um pouco confuso? Está tudo bem: o efeito do emaranhamento quântico, precisaremos de nossos sentimentos para tentar compreender qual o artista retratado aqui (fonte: Phys.org)

Agora vamos escrever os coeficientes da função de onda que descreve nosso qubit usando os cálculos que acabamos de fazer. Mais uma vez, notamos que no momento isso nada mais é do que um jogo da mente, substituindo (ainda que significativo e internamente consistente) algumas fórmulas matemáticas em outras:

C0 = cos(θ/2) * exp(if0), c1 = sin(θ/2) * exp(if1), {4}

Ou seja, a equação {1} se transforma em

|ψ⟩ = cos(θ/2) * exp(iφ0) |0⟩ + sin(θ/2) * exp(iφ1) |1⟩, {5}

E como os ângulos φ0 e φ1 são medidos no mesmo plano,

|ψ⟩ = exp(iφ0) * (cos(θ/2) |0⟩ + sin(θ/2) exp(i(φ0 – φ1)) |1⟩), {6}

Ou, descartando φ0 por falta de informação e passando a levar em conta uma diferença de fase realmente significativa (φ u003d φ0 – φ1; este não é o mesmo φ que apareceu na figura explicando a representação de um número complexo em coordenadas polares) de cada um deles separadamente, temos:

|ψ⟩ = cos(θ/2) |0⟩ + eφ * sin(θ/2) |1⟩. {7}

O que acontece? Existe um certo valor determinado por um número escalar (módulo) e dois ângulos, um dos quais varia de 0 a π radianos, e o outro, que em seu significado é uma diferença de fase, é livre para assumir valores de 0 a π radianos. 2π.

A esfera de Bloch finalmente liga a descrição dos estados de um sistema quântico à trigonometria (esférica) (fonte: Prefetch.eu)

Não te lembra nada? Bem, claro, estas são coordenadas esféricas, onde θ é o ângulo de azimute e φ é o polar. De repente, descobriu-se que o estado de um único qubit com exatamente dois estados de contorno é descrito por um conjunto de pontos na chamada esfera de Bloch, com o estado θ = 0 correspondendo ao valor |ψ⟩ = |0⟩, enquanto para θ = π obtemos |ψ⟩ = |1⟩.

Sua palavra, camarada Shor. À questão da pluralidade dos mundos. Então, há algum progresso real na computação quântica?

⇡#Sua palavra, camarada Shor

Tendo descoberto como representar matematicamente a função de onda de um qubit, vamos retornar aos problemas computacionais reais. Ou seja: para que, de fato, os computadores quânticos são necessários? Que problemas, inacessíveis aos computadores de von Neumann em um tempo razoável, podem ser efetivamente resolvidos?

Computadores quânticos promissores, apesar de lidarem com átomos únicos, se assemelham a fantásticas máquinas de combate em termos de contornos e massa (fonte: Quantinuum)

Um exemplo muito claro de tal problema foi proposto em 1994 por Peter Shor, um matemático do Instituto de Tecnologia de Massachusetts. Ele considerou um dos problemas mais antigos da matemática computacional, ainda não resolvido por métodos analíticos – a fatoração de um número – e mostrou teoricamente como algum computador que não existia na época, agindo de acordo com os princípios da mecânica quântica, poderia lidar com esse problema em um tempo muito mais razoável do que o computador de von Neumann.

A fatoração é a decomposição de números inteiros positivos (naturais) em fatores primos. Para números pequenos, é trivial fazê-lo manualmente: 6 é decomposto em 2 e 3, 15 é decomposto em 3 e 5, etc. Mas se o número for grande o suficiente, escrito em dezenas e centenas de dígitos significativos, sua fatoração se torna em um pesadelo computacional natural. Os matemáticos propuseram uma série de algoritmos projetados para acelerar a fatoração de grandes números em computadores clássicos, mas eles ainda não alcançam um ganho de tempo revolucionário (comparado a uma simples enumeração sequencial de números primos de uma tabela – e uma verificação frontal se o grande número em estudo é divisível por eles completamente).

Fatoração passo a passo do número 525: a cada passo, outro fator primo é obtido (fonte: Wikimedia Commons)

Isso, a propósito, não é nada ruim – do ponto de vista da criptografia digital. Pelo contrário: se de repente alguém descobrisse amanhã um método analítico para fatorar números grandes, o algoritmo de criptografia RSA, que é usado literalmente em todos os lugares hoje, estaria em risco – desde a codificação de dados dentro de pastas fechadas de olhares indiscretos em um disco rígido local até a transferência dados sensíveis (cartões de números bancários ao pagar mercadorias on-line, por exemplo) via Internet.

Uma parte essencial da implementação do RSA é que o produto de dois números naturais suficientemente grandes é transmitido por um canal aberto para o destinatário de uma mensagem criptografada – representada por centenas, até milhares de bits cada. Fatorar este produto – decompô-lo nos fatores originais, mesmo sabendo com certeza que existem apenas dois deles e que ambos são números primos – é uma tarefa extremamente intensiva em recursos para uma máquina de von Neumann. Um computador quântico, atuando no algoritmo Shor, resolverá esse problema de forma rápida e eficiente.

O processador quântico de 8 qubits da startup californiana Rigetti (2018) não representa ameaça ao algoritmo RSA (fonte: Skoltech)

O algoritmo de Shor baseia-se na redução da fatoração para outro problema, muito melhor otimizado para resolver em um computador quântico, para encontrar o período de uma determinada função. Isso mesmo: novamente, há uma tendência de vários fenômenos descritos por modelos matemáticos semelhantes à correspondência mútua (analogia). Usando o teorema de Euler, verifica-se que, com base em um número decomposto em fatores, não é difícil compor uma série de números, que – a partir de um determinado momento – certamente começará a se repetir.

Não nos aprofundaremos na apresentação matemática desse procedimento – para maior clareza, daremos apenas um exemplo de uma brilhante descrição do algoritmo de Shor, feita por Scott Aaronson, professor da Universidade do Texas em Austin. Todo mundo conhece a sequência de potências inteiras de dois:

2, 4, 8, 16, 32, 64, 128, 256…

Cada um dos membros desta sequência pode ser tomado em módulo qualquer número, por exemplo 15. Lembre-se que “tomar x módulo y” (x mod y) significa “obter o resto da divisão de x por y uniformemente”. Se o dividendo for menor que o divisor, então o quociente se anula e o resto é obviamente igual ao próprio dividendo. Vamos construir uma nova série baseada na anterior:

2 mod 15 = 2,

4 mod 15 = 4,

8 mod 15 = 8,

16 mod 15 = 1,

32 mod 15 = 2,

64 mod 15 = 4,

128 mod 15 = 8,

256 mod 15 = 1

Veja o padrão? Em vez de uma série de números infinitamente crescentes (potências de dois), temos uma série muito compacta de repetição infinita com um certo período, neste caso igual a 4 (exatamente quatro números são repetidos um após o outro: 2, 4, 8, 1 ). Então, se tomarmos o produto de dois números primos p e q como o próprio módulo pelo qual a expansão é realizada (e no exemplo de Scott Aaronson, 15 é apenas 3 * 5), então o período da sequência resultante, como mostrado por Shor, será dividido completamente o produto (p – 1)*(q – 1).

⇡#À questão da pluralidade dos mundos

Finalmente, chegou a hora de reunir tudo o que foi dito até agora sobre computação quântica, qubits e o princípio da superposição, para entender qual é a força – e ao mesmo tempo fraqueza – da computação quântica em comparação com os clássicos.

Uma das principais fraquezas das implementações atuais de computadores quânticos é seu incrível volume físico (fonte: Quantinuum)

A essência do método Shor é que, embora os fatores primos p e q não possam ser obtidos diretamente do produto (p – 1) * (q – 1), ninguém proíbe o cálculo dos períodos de um conjunto de sequências da forma

X mod pq,

X2 mod pq,

X3 mod pq,

X4 mod pq…

Para um conjunto de x selecionados aleatoriamente.

Suponha que haja uma certa máquina, um computador quântico, que, graças ao princípio da superposição, é capaz de realizar cálculos de acordo com o algoritmo de Shor para o mesmo número em estudo (o produto do primo p e q), mas para uma enorme quantidade número de argumentos aleatórios x em paralelo. O sistema, por outro lado, obedece às leis da mecânica quântica, o que significa que é capaz de estar em muitos estados mutuamente exclusivos ao mesmo tempo.

A interpretação de muitos mundos da mecânica quântica postula a existência simultânea de “universos paralelos” com idênticas leis da natureza e constantes mundiais, mas em diferentes estados quânticos (Fonte: Wikimedia Commons)

Os resultados dos cálculos serão ondas – sequências repetidas com determinados períodos. Usando a transformada quântica de Fourier, uma espécie de manifestação de interferência entre estados quânticos, não será difícil destacar o verdadeiro período – aquele que dividirá o produto (p – 1) * (q – 1) mencionado acima.

Aqui, a diferença fundamental entre a mecânica quântica e a teoria da probabilidade, com a qual muitas vezes é confundida em apresentações populares, manifesta-se em pleno crescimento (lembre-se do exemplo com uma moeda girando dado mais perto do início do artigo, supostamente explicando o princípio de funcionamento de um qubit?) Na teoria da probabilidade, a probabilidade de qualquer evento aleatório é estritamente positiva, enquanto a amplitude da função de onda é geralmente complexa e pode ser negativa.

A interferência de ondas ordinárias (não quânticas) de várias fontes pode ser observada na chuva na poça mais comum (fonte: Pixabay)

É por isso que o algoritmo de Shor funciona devido à chamada interferência destrutiva: as amplitudes de múltiplas oscilações de ondas ocorrendo em paralelo (não simultaneamente, mas em paralelo, como se em universos paralelos, como diz uma das interpretações da mecânica quântica) são adicionadas e amplificados onde seus períodos são o mais próximo possível do verdadeiro, e se cancelam mutuamente onde não há oscilações em fase devido à grande discrepância entre seus períodos e o verdadeiro.

Agora, esperançosamente, está mais claro por que o relatório do Google sobre o sucesso do computador quântico Sycamore de 52 qubits mencionou um erro de 0,2% no resultado. É possível obter um erro zero no curso da interferência destrutiva apenas com um número infinito de ondas que se somam mutuamente e, como pouco mais de cinquenta qubits estavam envolvidos nesse experimento, em vez de uma resposta exata, os pesquisadores receberam uma certa média número mais um certo intervalo de desvios permitidos.

⇡#Água escura em cubitech

E agora começa a parte mais interessante – a parte prática. Shor em seu trabalho (criado, lembramos, muito antes do surgimento do primeiro protótipo de um computador quântico) lidou com a abstração, com uma ferramenta de computação ideal livre de falhas aleatórias e limitações tecnológicas. Mas mesmo os circuitos integrados de semicondutores precisam de ferramentas de correção de erros de hardware e software bastante sofisticadas, literalmente em cada estágio da computação e da troca de dados. Os computadores quânticos reais sempre funcionam exatamente da maneira que seus desenvolvedores esperam que eles funcionem?

Aprimorado (com correção de erros aprimorada) O Sycamore está planejado para ser usado para simular reações químicas – processos que são essencialmente de natureza quântica (fonte: Phys.org)

Claro que não, e o problema da correção de erros é ainda mais agudo para eles do que para os computadores clássicos. Embora os qubits possam ser implementados de várias maneiras, a mais comum hoje, implementada inclusive por engenheiros do Google e da IBM, envolve a integração de ressonadores baseados em minúsculos circuitos supercondutores integrados a microchips semicondutores, obtendo assim um custo relativamente baixo e computadores quânticos bem controlados. Os ressonadores podem estar em um dos dois estados de energia limite (codificando |0⟩ e |1⟩).

Sob a influência da radiação de micro-ondas, o ressonador pode ser transferido tanto para um desses estados quanto para qualquer combinação deles (por exemplo, 42% de |0⟩ e 58% de |1⟩). Mas aqui está o problema: apenas os estados limites do ressonador são estáveis ​​e, portanto, de qualquer estado intermediário, esse elemento quântico extremamente rapidamente, em uma fração de segundo, certamente irá para o estado limite mais próximo. Esse processo físico objetivo, chamado de decoerência, destrói a superposição das funções de onda. Assim, a própria base do algoritmo de Shor – interferência destrutiva – acaba sendo impossível devido à perda deliberada de consistência mútua das oscilações do qubit mesmo com um período verdadeiro. Portanto, todos os cálculos e a fixação de seus resultados em um computador quântico real devem ser realizados em um tempo extremamente limitado.

Um dos primeiros protótipos do Sycamore (2014) continha apenas 9 qubits, alinhados em uma fileira de pouco mais de 3 mm de comprimento (Fonte: Google)

Pior ainda, o pequeno ressonador está sujeito a ruído térmico, o que inevitavelmente afeta o estado do qubit representado por este dispositivo. A representação de um qubit na forma de uma esfera de Bloch mostra claramente o quão críticas são as consequências do ruído na operação deste componente elementar de um computador quântico.

Erros de bit-flip levam à inversão dos compartilhamentos de componentes no vetor de estado atual – em vez de 42% de |0⟩ e 58% de |1⟩, resulta em 58% de |0⟩ e 42% de |1⟩ . Erros de inversão de fase são quase mais perigosos do ponto de vista do algoritmo de Shor, uma vez que deslocam a fase do vetor de estado em π radianos de uma só vez – e assim prejudicam extremamente o procedimento de interferência destrutiva.

Ambos os tipos de erros em implementações físicas de qubits reduzem a precisão da computação quântica (Fonte: Science)

De acordo com Greg Kuperberg, matemático da Universidade da Califórnia em Davis, quando a equipe do Google executou sua infame tarefa no Sycamore – sim, aquele que é executado em um computador quântico “158 milhões de vezes mais rápido” do que no von Neumann – ela mal conseguiu obter a resposta correta apenas por causa do ruído que violou o padrão de interferência destrutiva. De fato, cerca de 1% do sinal informativo foi abafado em 99% do ruído – e somente a estrita uniformidade da distribuição desse mesmo ruído sobre os resultados medidos permitiu identificar até mesmo manifestações tão fracas da resposta verdadeira contra sua fundo.

Aliás, o mesmo von Neumann foi o primeiro a propor um mecanismo de correção de erros na década de 1950 para computadores em tubos de rádio e relés mecânicos – já que eles também passavam espontaneamente do estado desejado para o desnecessário. A implementação mais simples de tal mecanismo, embora bastante cara, envolve a triplicação de cada circuito lógico e a correspondente paralelização de todas as operações em andamento.

Um mecanismo de correção de erros simples e eficaz para máquinas von Neumann para computação quântica, infelizmente, não pode ser implementado com a mesma facilidade (fonte: Science)

Comparando regularmente os resultados obtidos em cada circuito, podemos afirmar com segurança que se dois deles são iguais e o terceiro é diferente, significa que foi no terceiro circuito que ocorreu algum tipo de falha – e então exatamente esse valor deve ser aplicado à entrada da próxima seção do circuito lógico embutido, que é reconhecido como verdadeiro devido à coincidência dos dois primeiros resultados.

⇡#Ocorreu um erro monstruoso

É muito simples implementar um esquema de construção em um VLSI semicondutor, embora isso realmente reduza o número de transistores disponíveis para computação em um chip por um fator de três, razão pela qual métodos de correção de erros mais sofisticados e menos intensivos em recursos são implementados na microeletrônica moderna. Mas para um computador quântico, a implementação de um esquema tão simples é um problema considerável – novamente, devido às sutilezas objetivas da mecânica quântica. O teorema de não clonagem indica diretamente que não há como criar uma cópia exata de um sistema quântico arbitrário (o mesmo qubit) sem violar o estado do sistema original.

Um único circuito supercondutor usado para criar um qubit, em alta ampliação (fonte: Phys.org)

Ao mesmo tempo, nada impede que dois sistemas quânticos arbitrários estejam em um estado emaranhado (interdependente), quando, digamos, uma medição do vetor de estado de um dos qubits emaranhados não apenas fornece um resultado para o primeiro, mas também simultaneamente transfere o segundo para exatamente o mesmo estado. O emaranhamento para ressonadores quânticos em microcircuitos é implementado através da operação “NO controlado” – não controlado (CNOT), um análogo de “OR exclusivo” (XOR) para lógica binária. Inicialmente, o qubit escravo é transferido para o estado |0〉, e se o qubit mestre entrou em colapso durante a medição para o estado |1〉, o CNOT altera o estado do escravo, caso contrário, permanece o mesmo.

Tendo realizado o entrelaçamento quântico de três qubits – mais precisamente, dois qubits mestres com o mesmo seguidor – obtemos que se o vetor de estado do mestre for formado por 42% de |0⟩ e 58% de |1⟩, todos os três juntos têm o vetor de estado exatamente o mesmo — 42% de |0⟩ e 58% de |1⟩. Ressaltemos que aqui não há uma cópia exata do primeiro qubit, o que é fisicamente inaceitável devido ao teorema da não clonagem, mas sim a criação de uma estrutura dependente (emaranhada) de três qubits através de uma porta lógica. Se, depois de medir o estado do qubit principal, ele for reduzido a |1⟩, os outros dois farão o mesmo; se estiver em |0⟩, então todos os três demonstrarão o estado |0⟩.

Após o emaranhamento, os estados do mestre e dois qubits escravos são mutuamente consistentes (fonte: Science)

Além disso, mais dois qubits auxiliares são conectados a este circuito: um – ao mestre e o primeiro escravo do trio considerado, o segundo – ao primeiro e segundo escravos. Os qubits auxiliares permitem detectar casos de mudança espontânea nos estados finais de cada um dos três qubits principais devido a erros surgidos espontaneamente por ruído, sem perturbar o emaranhamento do mestre com ambos os escravos. Se o primeiro qubit auxiliar demonstrar o valor |0⟩ após a medição, então ambos os qubits principais controlados por ele estarão no mesmo estado.

Sim, durante a medição, os estados quânticos dos qubits auxiliares entram em colapso, mas os principais continuam inalterados (não medidos). E isso significa que os operadores têm a chance de influenciar o qubit principal que entrou em um estado errôneo com radiação de microondas antes que o computador quântico resolva o problema atribuído a ele. Assim, a coerência dos estados quânticos será restaurada, o que é necessário para que a interferência destrutiva em um sistema real funcione pelo menos aproximadamente com a mesma eficiência de um sistema ideal. É verdade, a um preço considerável: o que um qubit pode fazer em teoria, na estrutura de um computador quântico real, agora é realizado por um grupo interconectado de cinco.

Dois qubits auxiliares entrelaçados com os três qubits principais podem corrigir com confiança erros de flip de bit único (fonte: Science)

Infelizmente, este não é o fim do assunto. O mecanismo de correção descrito é aplicável apenas a erros do tipo “falha de bit”: para detectar e corrigir também “falha de fase”, é necessário um circuito de nove qubits dispostos em uma matriz quadrada 3 × 3. Nesse contexto, relatórios sobre a construção de uma máquina com cem ou duzentos qubits físicos soam muito menos bravura – afinal, o número de elementos lógicos (menos auxiliares) realmente disponíveis para cálculos neles acaba sendo aproximadamente 0,5-1 ordem decimal a menos.

Pior de tudo, adicionar elementos adicionais a um sistema quântico aumenta significativamente o nível geral de ruído – e, por sua vez, cria a necessidade de correção adicional de erros que ocorrem recentemente. Suponha que a tarefa seja fatorar um número que consiste em 1024 bits – apenas essas chaves de criptografia muitas vezes dependem das ferramentas criptográficas modernas mais sofisticadas. Resolver esse problema de uma só vez permitirá a execução do algoritmo de Shor em um computador quântico composto por 1024 qubits lógicos.

O esquema de quatro qubits proposto pela IBM em 2015 (dois qubits principais em estado emaranhado, dois de controle, a área ocupada pelo contorno é de 1,6 cm2) permite detectar efetivamente erros de inversão de bits e inversão de fase, mas não corrigi-los (fonte: IBM)

Ao mesmo tempo, tendo em conta a descoerência, que limita significativamente o tempo de funcionamento do sistema, o que não pode ser evitado, é necessário garantir, num intervalo de tempo extremamente limitado, a precisão dos cálculos a um nível não inferior a um erro por bilhão de operações. Por que, de acordo com Marissa Giustina, física que trabalha em computação quântica no Google, para cada qubit lógico pode ser necessário – no atual nível de desenvolvimento de tecnologias quânticas aplicadas – até mil auxiliares que implementam detecção e oportuna (não esqueça a crescente ameaça de decoerência ao longo do tempo!) correções de bugs. “Eles dizem que a correção de erros é o próximo passo na computação quântica. Eu diria que esses são os próximos 25 passos”, admite o pesquisador com amarga ironia.

⇡#Então, há algum progresso real na computação quântica?

É claro que os cientistas não desanimam, caso contrário não seriam cientistas. Esquemas cada vez mais ousados ​​para a construção de computadores quânticos estão sendo propostos – eles incluem, por exemplo, não fisicamente adjacentes no plano de um único chip, mas qubits emaranhados separados por uma distância notável. O esquema baseado em osciladores quânticos implementado em Sycamore e outros sistemas modernos requer a localização de qubits exatamente na vizinhança, o que torna a organização da correção de erros em cascatas de qubits auxiliares extremamente trabalhosa. Se forem usadas outras implementações físicas de qubits que lhes permitam interagir a uma distância perceptível, o número de elementos auxiliares no sistema pode ser radicalmente reduzido através do uso de esquemas de correção ótimos, mas tais implementações físicas têm seus próprios problemas que não foram resolvidos. totalmente resolvido hoje e dificuldades puramente técnicas.

O processador quântico IBM Eagle de 127 qubits (2021) conta com uma nova topologia hexadecimal pesada para detectar e corrigir erros em tempo hábil, o que implica a localização de qubits principais emaranhados aos pares nos nós de uma rede hexagonal e os de controle em suas faces (fonte : IBM)

Bem, para a sobremesa: todos os problemas listados até agora foram relacionados a qubits individuais, enquanto um computador quântico inclui, além deles, elementos lógicos – portões (como o CNOT mencionado anteriormente). O que é uma surpresa, uma surpresa! também são propensos a erros. No final de 2021, John Martinis, agora professor da Universidade da Califórnia em Santa Bárbara e anteriormente arquiteto-chefe do mesmo Sycamore, declarou sem rodeios: “Acho que corrigir erros em portões quânticos hoje é uma tarefa muito mais importante do que aumentar a número de qubits. A longo prazo, se falamos de computação quântica realmente complexa, devemos nos esforçar para reduzir o nível de erros nos portões a um nível não superior a 1%.”

Os computadores quânticos mais avançados de hoje mostram uma taxa geral de erros lógicos (incluindo todos os nós e circuitos corretivos que contribuem para eles) da ordem de 10–3 – aproximadamente, um ou dois erros por mil operações. Para atingir o nível de precisão que os computadores semicondutores baseados na arquitetura von Neumann demonstram, é necessária uma precisão de pelo menos 10–10, e preferencialmente 10–20. E o caminho para esse limite, obviamente, será longo e difícil.

Enquanto a computação quântica é feita no nível micro, o mesmo Eagle de 127 qubits requer uma máquina bastante grande para operar (fonte: IBM)

«A supremacia quântica, que muitos alardearam com tanto entusiasmo em 2019, ainda não foi alcançada – e é improvável que os computadores quânticos representem uma ameaça real ao RSA e outros algoritmos de criptografia que dependem da fatoração de grandes números no médio prazo. No entanto, há algo para se alegrar: não há dúvida de que no processo de construção de um computador quântico verdadeiramente eficiente, tantas questões técnicas complexas serão resolvidas e tal progresso será feito nas áreas de ciência dos materiais, criogenia, microeletrônica e muitos campos afins que só isso certamente justificará tudo, as forças e os meios gastos em um caminho tão longo e espinhoso.

avalanche

Postagens recentes

AMD lançará Ryzen 9 5900XT e Ryzen 7 5800XT amanhã

A AMD negou vários relatos da mídia de que adiou as vendas dos processadores Ryzen…

4 horas atrás

Intel apresentará processadores móveis Lunar Lake em 3 de setembro

A Intel anunciou que os processadores móveis Core Ultra, codinome Lunar Lake, serão revelados pouco…

4 horas atrás

Os Jogos Olímpicos trocaram Mario e Sonic por NFTs e eSports

Desde 2007, os Jogos Olímpicos de Verão são acompanhados por esportes arcade da série Mario…

4 horas atrás