Processador quântico por dentro: a Intel veio buscar nossas senhas?

O anúncio do processador quântico Tunnel Falls é relativamente escasso em detalhes técnicos. O principal é que este microcircuito é semicondutor, ou seja, pode ser fabricado em modernas máquinas fotolitográficas EUV usando wafers em branco padrão de 300 mm de diâmetro. Existem cerca de 24.000 chips acabados com dimensões de 50 × 50 nm (nanômetros; isso não é um erro de digitação – é por isso que as litografias mais avançadas são necessárias para sua fabricação!) Em tal placa, levando em consideração as lacunas tecnologicamente necessárias entre elas, cerca de 24 mil são colocados, placa, segundo a Intel, já chega a 95%.

Bem no centro do chip Tunnel Falls está uma área do tamanho de um nanômetro com uma dúzia de pontos quânticos de silício (fonte: Intel)

A verificação dos processadores quânticos obtidos é realizada em uma instalação criogênica especialmente projetada a temperaturas próximas ao zero absoluto (mais precisamente, 1,7 graus Kelvin; -271,45 ° C). Cada chip Tunnel Falls contém 12 pontos quânticos de silício e pode ser configurado para organizar de 4 a 12 qubits lógicos/físicos. Isso, claro, não é muito – mas a Intel, segundo seus representantes, já está trabalhando na próxima versão do microcircuito quântico, que planeja apresentar ao público até 2024. O principal objetivo da empresa no campo quântico é a criação de um computador quântico comercial completo, essencialmente multi-qubit e resistente a erros:

Então, é hora de abandonar a proteção por senha das contas e, em geral, das tentativas de criptografar qualquer tipo de dado digitalizado? Ou a tecnologia de pontos quânticos promovida pela Intel ainda ganhará impulso por algum tempo perceptível sem ameaçar os algoritmos de criptografia mais comuns atualmente? Essa questão, em essência, se resume a saber se existe criptografia resistente à quebra em sistemas de computação quântica – e, em caso afirmativo, quanto tempo levará para que todos mudem para ela dos algoritmos amplamente usados ​​​​hoje? E, em geral, até que ponto a pressa com essa mudança é justificada?

Vamos tentar descobrir. E vamos começar com uma fundamentação aplicada bastante prosaica, mas não menos importante, do problema.

⇡#Apenas negócios

Os gastos com TI em todo o mundo agora mostram uma tendência de queda bastante rápida: por exemplo, se em outubro de 2022, os analistas do Gartner previram seu crescimento até o final do ano atual em cerca de 5,1%, em janeiro de 2023 eles reduziram o valor esperado para 2 , 4% em relação ao nível do ano passado. Se o atual estado de coisas com altas taxas de juros dos bancos centrais e o alto custo dos empréstimos inéditos no Ocidente por muitas décadas continuar, a venda de produtos de alta tecnologia diminuirá ainda mais – e, ao mesmo tempo, o fluxo de investimento na melhoria do desenvolvimento de TI vai secar.

Previsão de forte crescimento nos gastos com IA generativa no mundo, bilhões de dólares americanos, por anos até 2030 (fonte: Next Move Strategy Consulting)

Não é de surpreender que, na situação atual, as principais empresas de TI estejam se esforçando para encontrar as áreas em que a demanda continuará alta – pelo menos no médio prazo. Quanto mais os clientes precisam de um determinado produto, menor (em média) é o retorno do investimento em seu desenvolvimento e produção em massa. Uma dessas áreas “quentes”, cujo hype em torno do qual não diminuiu desde pelo menos o outono passado, é a IA generativa: o volume de negócios global nesta indústria, de acordo com a Grand View Research, crescerá a uma taxa média anual de quase 35% em nos próximos anos e 2030 ultrapassará 109 bilhões de dólares americanos.

Outro segmento que cresce ativamente hoje é a computação quântica em sua totalidade; desde a criação de dispositivos de hardware até o desenvolvimento de APIs e software de aplicativos, incluindo o fornecimento de acesso a computadores quânticos por meio da nuvem. Especialistas da Market Insights Reports esperam um aumento no volume de negócios aqui de US$ 230 milhões em 2022 para US$ 2,04 bilhões em 2029 a uma taxa média anual de 36,5%. Sim, em termos absolutos, o segmento quântico do mercado de TI é uma ordem e meia inferior ao campo da IA ​​generativa, mas tem todas as chances de atingir taxas de crescimento muito mais altas em alguns anos. Este salto qualitativo será marcado pela saída do “vale da morte” NISQ – falaremos sobre o que é um pouco mais baixo.

O processador Tunnel Falls, equipado com o chicote necessário para instalação em um computador quântico (fonte: Intel)

E agora é importante que a menção à orientação comercial de Tunnel Falls – embora ainda não apareça à venda, mas seja fornecida diretamente pela empresa a laboratórios selecionados – não seja de forma alguma acidental. A abordagem da Intel para o desenvolvimento da computação quântica é precisamente aqui (e não no campo da implementação aplicada de um qubit como elemento básico de um computador quântico) que é mais radicalmente diferente daquelas professadas por outras empresas que operam na mesma direção geral. Os rivais da Intel na pesquisa de computação quântica geralmente vendem acesso a seus computadores, e não a essas próprias unidades. Em outras palavras, essas empresas estão desenvolvendo simultaneamente APIs abertas para executar tarefas externas em seus sistemas – e aprimorando as tecnologias selecionadas para implementar a computação quântica,

Mais cedo ou mais tarde, esperam esses desenvolvedores, haverá qubits suficientes e o impacto dos erros no resultado diminuirá razoavelmente. Ambos estão em um sentido puramente aplicado, até mesmo comercial; de modo que o custo de resolver esse problema específico em um computador quântico se torne menor do que em um supercomputador ou cluster de servidores da arquitetura clássica de von Neumann. Nesse momento, os clientes – que já dominam a API fornecida a eles com antecedência – receberão acesso à nuvem para um Graal quântico totalmente funcional, e os desenvolvedores desses sistemas começarão a cortar cupons. A abordagem da Intel neste caso é fundamentalmente diferente: tendo feito um nome e uma fortuna (mais precisamente, capitalização) no desenvolvimento e venda de processadores x86, a empresa também pretende vender chips quânticos para clientes em forma física – junto com a API correspondente ,

O próprio processador quântico Eagle é um pequeno quadrado cinza em um substrato de terracota no centro inferior desta imagem; todo o resto são os elementos de design da calculadora necessários para garantir seu funcionamento (fonte: IBM)

Para ser justo, observamos que a IBM também está pronta para fornecer seus chips Eagle de 127 qubits aos clientes a partir do próximo ano para hospedar computação quântica baseada neles localmente, e não apenas disponibilizá-los por meio da nuvem. Segundo a IBM, esses sistemas já superaram a chamada escala de utilidade, podendo – graças ao sistema de correção de erros desenvolvido pelos engenheiros da empresa – resolver certas classes de problemas associados à modelagem de uma série de processos físicos com mais rapidez do que os mais modernos supercomputadores von Neumann. Mas o custo de liberar os chips Eagle, visto que foi organizado do zero, é tão alto que é improvável que muitas pessoas queiram possuir computadores baseados neles: alugar tempo de computador pela nuvem parece ser mais do que um passo razoável aqui.

As razões para a Intel são bastante óbvias: a empresa tem vasta experiência no desenvolvimento e produção de semicondutores, então, novamente, de um ponto de vista puramente comercial, seria estranho para ela – especialmente nas difíceis condições econômicas atuais – investir em novas indústrias para criar computadores quânticos baseados em outros princípios tecnológicos. Com a escala característica que a fotolitografia alcançou hoje, os efeitos quânticos não são mais apenas manifestados, mas começam a ter um impacto significativo na operação dos componentes básicos dos sistemas de computação semicondutores – os transistores. Então, por que não usar esses efeitos a seu favor, tendo aprendido como criar qubits usando o processo litográfico afinado de hoje? E como esse processo envolve serialização e produção em massa, por que não vender (embora no futuro, senão para todos) processadores quânticos prontos da mesma forma que os microcircuitos x86 são implementados hoje?

Com tecnologia de IA da Microsoft, o agente de busca do Bing faz um excelente trabalho ao censurar tópicos inconvenientes: realmente, por que um usuário respeitável saberia como os neonazistas diferem dos nazistas? (fonte: reddit)

No entanto, a abordagem completamente lógica, comercial e completa da Intel para um projétil quântico levanta muitas questões entre especialistas e entusiastas que observam essa área do progresso de TI. Além disso, já existe um exemplo de uma tecnologia avançada potencialmente perigosa que está começando a escapar parcialmente do controle rígido: trata-se da inteligência artificial generativa (IA). Grandes modelos de linguagem GPT-3, para não mencionar os posteriores, exigem muito do hardware e, portanto, o acesso a eles pode ser significativamente limitado – e limitado, e como! – não apenas por seus desenvolvedores, mas também pelos reguladores estaduais. Ao mesmo tempo, os modelos de IA para converter texto em imagens e vídeos estáticos requerem um recurso de hardware muito mais modesto,

Imagens digitais de pessoas e eventos criadas por IA (deepfakes) podem ser tão verossímeis que se torna difícil determinar na hora se essa imagem ou vídeo engraçado, embaraçoso ou horrível foi realmente filmado ao vivo ou se é produto de um latente sem fundo espaço digital dentro da estrutura de outro modelo generativo realista assustador. Algo semelhante não acontecerá com a computação quântica se os processadores Tunnel Falls e seus herdeiros ideológicos se tornarem tão acessíveis quanto as placas gráficas de jogos de hoje? Não é barato, sim, e requer algum esforço para dominar, mas fundamentalmente acessível. E se os invasores começarem a usar processadores quânticos a torto e a direito – uma ferramenta ideal para resolver o problema de fatoração subjacente aos algoritmos de criptografia RSA e ECC que são mais comuns atualmente,

Montado em uma placa de circuito, o chip Tunnel Falls parece mais um controlador de rede humilde do que um processador sólido, mas é apenas o primeiro passo no caminho da empresa para a supremacia quântica. (Fonte: Intel)

A questão pode ser colocada de forma mais ampla: em princípio, quais áreas de aplicação podem ser encontradas para um computador quântico publicamente disponível (mesmo que apenas em uma extensão relativa)? Por exemplo, as mesmas placas gráficas poderosas para jogos eram inicialmente um produto de nicho para jogadores entusiastas: profissionais como editores de vídeo e modeladores 3D dependiam de adaptadores gráficos especializados que não eram otimizados para aplicativos de jogos. Mas então os gráficos discretos de jogos atraíram a atenção dos criptomineradores, e agora que o hype em torno da mineração de bitcoin e ether em casa diminuiu um pouco, esses mesmos dispositivos são ativamente explorados por entusiastas de artes visuais de IA. Incluindo criadores de pornografia quase indistinguíveis de filmagens reais, deepfakes envolvendo celebridades e outros conteúdos que não seguem os mais altos padrões morais.

É provável que haja; mas o que exatamente vai “atirar” aqui é difícil dizer agora: o crescimento explosivo da popularidade da mesma conversão de alta qualidade de descrições de texto em imagens – usando mesmo as placas de vídeo não mais avançadas – poucos poderiam ter previsto alguns anos atrás . Outra coisa é quão realista é a possibilidade de “domesticar” os computadores quânticos em princípio? Para responder a essa pergunta pelo menos em linhas gerais, mas com uma justificativa clara, vale a pena mergulhar um pouco no material.

⇡#Ponto, ponto, arsenieto de gálio

Os primeiros protótipos de engenharia viáveis ​​de processadores de pontos quânticos apareceram em 2004; desenvolvido independentemente por dois grupos de pesquisadores americanos – da Duke University em Durham, Carolina do Norte, e da Harvard University em Cambridge, Massachusetts. Em uma bolacha de arsenieto de gálio (que é mais difícil de manusear do que o silício, mas um semicondutor mais promissor para muitas tarefas), vários eletrodos de metal foram conectados a uma pequena área retangular literalmente nanométrica, à qual foi aplicada uma tensão negativa. Notamos entre parênteses que, embora os pontos quânticos de Tunnel Falls estejam dispostos, a julgar pelas escassas informações oficiais disponíveis sobre eles, de maneira um pouco diferente (pelo menos eles usam o silício como base, e não o arsenieto de gálio), o princípio de sua operação é essencialmente semelhante ao descrito.

Fotomicrografia (1 μm = segmento de escala de 1000 nm é mostrado) da área de trabalho de uma configuração experimental com um par de pontos quânticos semicondutores (fonte: Duke University)

Sob a influência do campo gerado, os elétrons nas camadas externas das moléculas de arseneto de gálio dentro da região indicada parecem ser pressionados sob a superfície do substrato, de modo que um poço de potencial é formado – um espaço raso limitado, obviamente livre de elétrons; com fundo e paredes literalmente forradas com carga negativa (para fechar tal poço na terceira dimensão, você também precisará de uma “tampa”, mas sua implementação em tal sistema é uma questão puramente técnica). Uma vez dentro de um poço de potencial, um elétron livre – deixemos de lado a questão de onde ele vem – ficará preso. Afinal, cargas de mesmo nome se repelem e, portanto, para sair do poço – vencer a resistência do potencial negativo de suas paredes, fundo e tampa – o elétron precisa de muita energia adicional.

Em condições normais (temperatura ambiente e até bem mais baixa), um súbito e poderoso impulso a um elétron que caiu em um poço pode ser transmitido por uma das partículas elementares que compõem toda a estrutura – graças ao movimento térmico estocástico, devido à que mesmo os átomos nos nós da rede cristalina de um semicondutor vibram bastante visivelmente. Mas com um resfriamento significativo, anulando as flutuações térmicas, o elétron está fadado a permanecer no poço. Um elétron isolado e mantido no lugar é, obviamente, um objeto quântico – portanto, é perfeito para o papel da incorporação física de um qubit.

Imagem artística de doze elétrons sentados em poços de potencial sob a superfície da base semicondutora do chip Tunnel Falls – na verdade, os pontos quânticos deste sistema de computação. Linhas de luz finas multidirecionais em círculos de elétrons simbolizam os estados instantâneos de seus spins (fonte: Intel)

Outra coisa é que um computador quântico em um único qubit não é adequado para nada além de demonstrar a possibilidade fundamental de mais trabalhos nessa área: em nosso material anterior sobre esse tópico, o princípio de realizar um certo tipo de cálculo em vários qubits em um estado de emaranhamento quântico é descrito em detalhes. É por isso que os grupos mencionados de pesquisadores de Durham e Cambridge criaram imediatamente protótipos de pontos quânticos não únicos, mas emparelhados. Afinal, ao projetar um sistema quântico que produza resultados um tanto confiáveis, é necessário resolver imediatamente o problema do emaranhamento de qubits – pelo menos o mais simples, par a par.

Lembre-se que no estado de emaranhamento quântico de dois objetos, a medição de algum parâmetro de um deles – no caso de um elétron, geralmente é o spin; uma espécie de análogo quântico do momento angular de rotação para corpos macroscópicos – traduz automaticamente o valor de um parâmetro semelhante do segundo objeto em um estado definido exclusivamente. Spin como uma quantidade física é conveniente para uso em circuitos lógicos, pois é quantizado para partículas elementares – ou seja, pode assumir apenas valores estritamente definidos que são múltiplos da metade da constante de Planck h: h / 2, h, h * 3/2, 2h; muitas vezes a menção dessa própria constante é liberada e eles simplesmente falam sobre o spin “um segundo”, “um”, etc. O elétron pertence aos férmions, ou seja, partículas com um spin meio inteiro.

Um par de objetos quânticos em estado de emaranhamento na representação de uma rede neural (fonte: gerada por computador com base no modelo Stable Diffusion XL)

No esquema que estamos descrevendo, um par de qubits é um par de poços de potencial localizados na vizinhança, os elétrons em cada um deles estão em um estado de emaranhamento quântico entre si. Mais precisamente, inicialmente os pesquisadores obtiveram duas “poças” – com cerca de 200 nm de diâmetro, espaçadas aproximadamente na mesma distância – de um número ímpar de elétrons livres. Estamos falando aqui de uma “poça” (poça), e não de uma “nuvem” (nuvem), pois o gás de elétrons no sistema resultante é bidimensional: a profundidade do poço de potencial, devido às características do projeto, é essencialmente igual a um elétron. Elétrons livres tendem a formar pares estáveis ​​(com spins opostos), de modo que em cada um dos pontos quânticos vizinhos, após a recombinação natural das partículas de gás de elétrons, resta exatamente um elétron verdadeiramente livre.

Tendo obtido “poças” estáveis ​​com um único elétron livre em cada uma, os pesquisadores propositadamente tornaram a fronteira entre elas cada vez mais fina, ajustando a voltagem aplicada aos eletrodos. Em um belo momento, quando os elétrons deixados sem um par de pontos quânticos vizinhos começaram a “sentir” a presença um do outro, eles, como esperado, formaram naturalmente um par ligado: permanecendo fisicamente cada um em sua própria “poça”, eles ainda assim entraram em um estado de emaranhamento quântico entre si. Agora, se de alguma forma (por exemplo, por medição direta) o valor do spin de um desses elétrons emaranhados for fixado, para o segundo ele automaticamente e instantaneamente mudará para o oposto.

Um qubit de um computador quântico em processo de trabalho na representação de uma rede neural (fonte: geração de computador baseada no modelo de Kandinsky)

Como exatamente esses spin qubits podem ser usados ​​para organizar a computação quântica foi apontado em 1998 por Daniel Loss, com base em um trabalho anterior do reconhecido teórico neste campo, David DiVincenzo. O computador quântico Loss-DiVincenzo, ou computador quântico spin qubit, é um computador quântico escalável com confiança (o que é especialmente importante do ponto de vista de aumentar seu desempenho) de um design relativamente simples e barato. Comparativamente, quero dizer, com sistemas quânticos baseados em outros princípios físicos – envolvendo, por exemplo, lasers. Se a ativação de cada um dos qubits requer seu próprio emissor de luz coerente separado, com um aumento no número de tais elementos computacionais básicos, a complexidade

De fato, talvez o único problema fundamental enfrentado pelos criadores de computadores quânticos com um spin qubit, ao qual o próprio David DiVincenzo se referiu em 2015, seja a necessidade de remover eficientemente o calor dos elementos semicondutores operando em ultrabaixo (as primeiras unidades na escala Kelvin ) temperaturas. O menor aquecimento de um sistema quântico acima das temperaturas ideais para sua operação significa um aumento avalanche no ruído térmico (devido ao fato de átomos e moléculas em seu ambiente começarem a se mover com maior amplitude), o que inevitavelmente leva a uma aceleração da decoerência – ou seja, a saída do sistema do estado quântico adequado com sua transformação simplesmente em um conjunto de elétrons situados em poços de potencial, não emaranhados uns com os outros.

Um wafer de silício de 300 mm com chips quânticos litografados é colocado em um equipamento de teste de refrigeração para testar a funcionalidade (fonte: Intel)

Na verdade, o chip Tunnel Falls proposto pela Intel é um protótipo tecnológico de pequena escala: é claro que nenhum cálculo comercialmente significativo pode ser feito em 12 qubits. No entanto, sua importância reside no fato de que a empresa desenvolve uma série de tecnologias industriais de fundamental importância durante sua produção, como testar microcircuitos acabados com rejeição de inutilizáveis ​​diretamente na peça de trabalho antes de cortá-la (o que requer resfriamento de todo o wafer de 300 mm a temperaturas próximas do zero absoluto sem a sua degradação) juntamente com a criação de equipamentos de teste adequados. Ao mesmo tempo, a Intel está criando uma solução padrão para um computador quântico pronto, incluindo um chicote de semicondutores para o próprio Tunnel Falls, além de um cooler bastante compacto e confiável que garantirá sua operação durante a operação local no cliente.

⇡#Era muito barulhenta?

O campo da computação quântica está se desenvolvendo rapidamente, e a maioria dos especialistas tende a ver esse desenvolvimento não como progressivo – mais ou menos uniforme, como no caso dos chips semicondutores -, mas aos trancos e barrancos. Seu estágio atual é descrito como uma era intermediária com alto nível de ruído (era quântica ruidosa de escala intermediária – a própria abreviação NISQ que mencionamos anteriormente), quando os computadores quânticos incorporados na realidade contêm menos de 1 mil qubits, cuja resistência inevitavelmente acumulando no processo taxas de erro de trabalho em cima disso é extremamente baixo. Como já mencionado em nosso artigo anterior sobre computação quântica, os melhores sistemas modernos são caracterizados por uma probabilidade típica de ocorrência de erros lógicos (levando em consideração todos os nós e circuitos corretivos que contribuem para eles) durante os cálculos da ordem de 10–3 – isso é,

Um criostato no Laboratório de Computação Quântica do Google em Santa Bárbara, Califórnia, mantém um processador quântico operando próximo ao zero absoluto (Fonte: Google)

Isso significa que os computadores quânticos da era NISQ são completamente inúteis? De jeito nenhum: só que a classe de tarefas que eles são capazes de resolver com eficiência suficiente é relativamente estreita. O fato é que o rápido acúmulo de erros e a transição bastante rápida dos qubits para o estado de descoerência impõem uma limitação natural à complexidade dos algoritmos que podem ser executados nos computadores quânticos modernos. Grosso modo, se a tarefa for tão complexa que sua execução em hardware quântico acessível demore mais do que o estado de emaranhamento quântico de qubits de hardware alcançado pelos esforços titânicos dos engenheiros, o sistema dará algum resultado – mas não terá significado prático. O tempo de retenção típico desse estado nos sistemas quânticos atuais é da ordem de 100 microssegundos.

E, no entanto, os pioneiros da computação quântica não desistem – e desenvolvem algoritmos NISQ especiais que inicialmente levam em consideração a imperfeição do hardware disponível para eles hoje. Uma direção de desenvolvimento de tais algoritmos é uma redução consciente no número de operações, uma aposta em circuitos lógicos de baixa profundidade (SDC; circuitos de profundidade curta ou pequena profundidade). Os programadores inicialmente assumem que os cálculos realizados por um sistema quântico não devem levar mais de 50-70% do tempo típico de emaranhamento entre seus qubits e se esforçam para otimizar seus algoritmos de acordo. É claro que com o número de qubits oferecidos pelos sistemas quânticos implementados hoje – dezenas, no máximo, algumas centenas – a abordagem SDC não permite resolver alguns problemas fundamentais, como a notória quebra de chaves de algoritmos de criptografia.

Um computador quântico do futuro (remoto?) realmente capaz de alcançar a superioridade quântica, na representação de uma rede neural (fonte: geração de computadores baseada no modelo Stable Diffusion XL)

Outra abordagem dos programadores NISQ é a hibridização de computações clássicas em máquinas de von Neumann com máquinas quânticas. Por exemplo, para a química de compostos complexos, inclusive orgânicos, é extremamente importante a tarefa de encontrar o estado fundamental das moléculas – aquele em que sua energia interna (determinada pela configuração das camadas eletrônicas dos átomos que as compõem) é mínimo. Uma molécula é essencialmente um sistema quântico e, portanto, modelá-la em um computador quântico é um dos problemas mais naturais que este último é capaz de resolver em princípio. No entanto, para emular uma molécula poliatômica, dezenas de qubits lógicos serão necessários, e o tempo para uma simulação completa de seus estados está obviamente além do limite de coerência dos sistemas NISQ atuais.

Por esse motivo, os pesquisadores usam uma abordagem híbrida: o computador quântico começa a processar o problema original, de modo que durante o tempo de manutenção da coerência (emaranhamento de qubits) do conjunto inicial de níveis de energia para cada camada de elétron, ele passa para algum intermediário um. Esse conjunto intermediário de níveis – essencialmente equivalente a um conjunto de pesos em uma rede neural – é então passado para a máquina clássica de von Neumann, que avalia exatamente como cada um dos parâmetros de entrada deve ser alterado para se aproximar do resultado desejado. De fato, neste caso, um computador clássico resolve um problema de descida de gradiente multiparâmetro, e se o faz algoritmicamente ou usando uma rede neural não é tão importante: é necessário fornecer um resultado não final, ou seja, instruções gerais para posterior modificação dos parâmetros. Essas instruções, por sua vez, tornam-se um conjunto (vetor) de parâmetros de entrada para uma nova iteração de cálculos em um sistema quântico, que nesse momento retorna novamente a um estado coerente – e assim esse processo híbrido continua repetidamente até que um resultado satisfatório Um é alcançado. Pesquisadores a precisão do resultado.

De um tarugo de 300 mm de diâmetro (esquerda) a um sistema de pontos quânticos em nanoescala: caminho de produção de Tunnel Falls (fonte: Intel)

Os sistemas quânticos da era NISQ também são adequados para várias tarefas de aprendizado de máquina, como a distinção entre um fluxo de elementos de entrada por um par de parâmetros mutuamente exclusivos (“gato/cachorro”). Em geral, a construção de redes neurais baseadas em computadores quânticos é uma indústria extremamente promissora, mas resultados práticos aqui não serão alcançados tão cedo. Para se comparar com os computadores semicondutores construídos sobre a arquitetura de von Neumann, e depois superá-los, os sistemas quânticos precisarão dar um salto qualitativo em seu desenvolvimento (aqui está, evidência de um progresso técnico desigual significativo nessa área), atingindo um precisão dos cálculos de pelo menos 10–10 . Somente depois disso podemos esperar o início da superioridade quântica – ou seja, a capacidade dos computadores quânticos de resolver uma certa gama de problemas muito mais rapidamente do que os dispositivos semicondutores mais poderosos. Entre essas tarefas, aliás, está o algoritmo Shor (também discutido com alguns detalhes no material anterior) – uma ameaça verdadeiramente direta e óbvia à criptografia RSA.

⇡#Chaves para o futuro

Até que chegue a era da supremacia quântica, não há necessidade de falar sobre fatoração efetiva (ou seja, decomposição em fatores primos – que é essencialmente o que o algoritmo de Shor se resume) de grandes números. Um dos algoritmos de criptografia de dados mais usados ​​atualmente, o RSA, depende precisamente da extrema complexidade computacional de fatorar um número essencialmente de vários dígitos em fatores primos. O algoritmo RSA assimétrico (nomeado após os nomes dos matemáticos que o propuseram em 1978 – Rivest, Shamir, Adleman) envolve o uso de chaves públicas e privadas, ambas contendo dois números primos muito grandes. A chave pública na criptografia RSA é composta pelo produto desses números, ao qual é atribuído um número dependente mais especificamente escolhido (número derivado), portanto, o comprimento total da combinação resultante é normalmente de 2.048 bits. Ou seja, para decifrar esse algoritmo, a decomposição em fatores primos não requer um número de 2.048 bits, mas uma combinação de bits com metade do comprimento. A partir disso, fica claro por que a criação de computadores quânticos com 1 mil qubits ou mais é indicada como o limite distante da era NISQ.

Um sistema quântico para quebrar cifras RSA pode realmente caber em uma mesa se seus qubits não precisarem ser resfriados a temperaturas ultrabaixas (fonte: geração de computador baseada no modelo de Kandinsky)

Porém, aqui está o azar: estamos falando de qubits lógicos, que sozinhos, de fato, são capazes de produzir computação quântica. Os mesmos qubits que aparecem nos anúncios oficiais dos processadores quânticos modernos – sejam 12 para Tunnel Falls ou 127 para o chip IBM Eagle – são físicos, ou seja, implementados de uma forma ou de outra “em metal”. Em nosso primeiro material sobre os fundamentos da computação quântica, abordamos com alguns detalhes o fato de que os sistemas quânticos modernos, precisamente por causa de sua extrema propensão a erros, precisam de esquemas complexos para controlar as operações que executam. Além disso, como as funções de controle são executadas por circuitos lógicos, também construídos sobre qubits, eles próprios precisam controlar seus próprios erros em grau não menor.

Como resultado, um sistema quântico na era NISQ requer um número significativo de qubits físicos – de 17 a 49 – para implementar um lógico. Além disso, à medida que o limite de decoerência (ou seja, o momento em que o emaranhamento mútuo de sistemas quânticos entra em colapso devido a causas naturais) se afasta, a probabilidade de erros só aumenta. E, portanto, nos computadores quânticos do futuro – os mesmos que serão capazes de lidar com o algoritmo Shor com chaves de criptografia RSA – um único qubit lógico exigirá pelo menos 1 mil qubits físicos para sua operação ininterrupta de longo prazo. E isso significa que será possível falar seriamente sobre alcançar a superioridade quântica somente após o início de pelo menos uma produção em pequena escala de processadores quânticos com 1 milhão de qubits físicos.

Uma representação artística da operação do código de correção de erro quântico de 5 qubits DiVincenzo-Shor (código de correção de erro quântico de 5 qubits): o qubit central muda de estado sob a influência de flutuações térmicas, mas devido ao controle de qubits físicos secundários sucessivos emaranhados com nele, o estado do qubit lógico como um todo permanece inalterado (fonte: Communications of the ACM)

Até que ponto essa perspectiva pode ser julgada pelo fato de que no final de 2022 a IBM apresentou seu mais poderoso computador quântico Osprey com 433 qubits físicos até o momento, este ano pretende anunciar o modelo Condor com 1121 desses elementos básicos, em 2024 – Flamingo desde 1386. Eles serão seguidos por Kookaburra com 4158 qubits físicos em 2025, e em 2033 – dez anos desde a redação deste artigo – a empresa planeja atingir a marca de 100 mil qubits físicos. Tal sistema seria capaz de pesquisar com confiança o estado fundamental de moléculas de 100 átomos, por exemplo, o que seria um passo gigantesco para a química computacional e aplicada. E, em geral, existem muitos problemas aplicados significativos adequados para resolver em um computador com cem qubits lógicos.

Outra coisa é que quebrar a criptografia usando o algoritmo RSA não se aplica a eles – essa área permanecerá “segura quântica” por mais, presumivelmente, 10 a 15 anos após 2033. A menos, é claro, que algum outro método físico de organização da computação quântica “dispare” repentinamente, o que acaba sendo energeticamente eficiente e mais barato (ao mesmo tempo, isso é importante) do que o uso de chips semicondutores. Sim, os computadores quânticos da série de pássaros da IBM e o Google Sycamore, embora usem circuitos supercondutores microscópicos em vez de pontos quânticos, são de fato também microchips – embora bastante específicos.

O computador quântico Osprey com 433 qubits físicos, apesar de toda a sua progressividade, ainda está extremamente longe de reivindicar superioridade quântica (fonte: IBM)

Mas o que acontecerá com o próprio princípio de criptografar as comunicações digitais quando a superioridade quântica em relação ao algoritmo RSA for finalmente alcançada? Estritamente falando – nada particularmente terrível. Algoritmos de criptografia (a chamada criptografia pós-quântica) que são resistentes a hackers em computadores quânticos já estão sendo desenvolvidos hoje, com base em abordagens matemáticas diferentes da decomposição em fatores primos. Claro, mesmo que a criptografia pós-quântica comece a substituir os métodos usuais de criptografia por uma chave assimétrica agora, uma transição completa levará muito tempo – 10 anos, nada menos: isso pode ser julgado pela duração da distribuição do próprio algoritmo RSA em todo o mundo. Só nessa época, a era do NISQ começará, quero acreditar, a declinar cada vez mais inequivocamente.

No entanto, é claro, nada impedirá hackers de visão de longo prazo de implementar a abordagem “colher agora, descriptografar depois”: tendo colocado suas patas em informações criptografadas hoje usando o algoritmo RSA, em 20 anos (e isso é na melhor das hipóteses) eles serão capaz de fazê-lo em questão de horas ou mesmo minutos para quebrar a defesa usando os mais recentes computadores quânticos comerciais com milhões de qubits físicos. É provável que em alguns casos o jogo valha a pena – embora não seja fácil imaginar que tipo de dados coletados hoje permanecerão de alto valor depois de quase um quarto de século. Os segredos de estado mais importantes, talvez – mas, no caso deles, o próprio fato de um vazamento (mesmo criptografado com segurança de acordo com os padrões atuais) de informações é francamente improvável.

A quebra de dados codificados em RSA usando um computador quântico pode ser assim (fonte: geração de computador baseada no modelo Stable Diffusion XL)

De qualquer forma, no momento e no futuro, pelo menos nas próximas duas décadas, os computadores quânticos comerciais, mesmo que sejam relativamente acessíveis, não se tornarão um pé de cabra nas mãos de invasores cibernéticos para quebrar nossas senhas. – e qualquer outra informação protegida por algoritmos criptográficos modernos. Repetimos a reserva feita anteriormente: estamos falando de sistemas baseados em cristais semicondutores usando pontos quânticos ou circuitos supercondutores localizados em um plano. É provável que, se os desenvolvedores conseguirem dominar a produção de microcircuitos multicamadas com pontos quânticos, os circuitos lógicos tridimensionais para correção de erros quânticos serão mais eficientes do que os planares, portanto, para implementar um qubit lógico, não serão necessários mil, mas, por exemplo, cem físicos – e então a era da superioridade quântica chegará repentinamente 10 anos antes do esperado. Mas mesmo nessa época, a criptografia pós-quântica já deveria ter se tornado bastante difundida – se você começar a promovê-la ativamente agora.

Além disso, não se deve descontar indiscriminadamente computadores quânticos com base em outros princípios: usando íons, átomos neutros, fótons como qubits. Até agora, o ritmo de desenvolvimento dessas tecnologias é mais modesto, mas é compreensível – por trás dos qubits baseados em semicondutores, há décadas de rápido progresso nas tecnologias de fabricação de chips e trilhões de dólares em investimentos anteriores. Pode acontecer que apenas nos próximos 10 a 20 anos, organizações de qubits que competem com tecnologias de semicondutores ganhem um ritmo constante de desenvolvimento e, então, a ameaça aos agora comuns algoritmos de criptografia adquirirá recursos muito mais realistas.

Nesse ínterim, não há nada com que se preocupar – pelo menos para usuários comuns da World Wide Web. Embora seja melhor alterar as senhas com mais frequência, apenas por precaução, é claro, e não salvá-las em um formato digital obviamente suscetível a hackers – é mais confiável assim.

avalanche

Postagens recentes

O clima em Marte mudou drasticamente há 400.000 anos, descobriu o rover chinês

O rover chinês Zhurong encontrou evidências de uma mudança climática abrupta em Marte que ocorreu…

3 horas atrás

O simulador de basquete NBA 2K24 chegará ao PC e consoles em 8 de setembro

A editora 2K e a desenvolvedora Visual Concepts anunciaram oficialmente que seu novo jogo de…

4 horas atrás

Valve comemora dez anos de Dota 2

Dota 2, o jogo que conquistou os corações de milhões de jogadores em todo o…

6 horas atrás

AMX e HBM2e dão ao Intel Xeon Max uma grande vantagem em algumas cargas de trabalho de IA

Novos dados sobre o desempenho dos processadores Intel Xeon Max com memória on-board HBM2e de…

6 horas atrás

A Raidon introduziu o adaptador iU2300-U6P3 de 5,25″ para dois SSD NVMe M.2 ou U.2

A Raidon Technology anunciou o dispositivo iU2300-U6P3, um módulo de expansão especializado que se parece…

6 horas atrás

ByteDance está desenvolvendo um robô humanóide com um grande modelo de linguagem “na cabeça”

A ByteDance, mais conhecida pela rede social TikTok, também está trabalhando em projetos de pesquisa.…

13 horas atrás