A menção aos reatores nucleares não é uma figura de linguagem: impressionados com a demanda inabalável pelos serviços de modelos generativos hospedados na nuvem, os provedores de tais serviços – e principalmente a Microsoft – já começaram a pensar em atrair pequenos reatores modulares (até 300 MW de energia elétrica) para atender às necessidades de seus data centers promissores, e a AWS adquiriu recentemente um terreno para construir um novo data center focado principalmente em tarefas de IA nas proximidades de uma usina nuclear na Pensilvânia. De acordo com a Agência Internacional de Energia, em 2022, no início do boom da IA, todos os data centers do mundo (com exceção daqueles envolvidos na mineração de criptomoedas) consumiam 240-340 TWh de eletricidade por ano, ou 1,0-1,3% do volume total de sua produção no planeta, e as operações de criptomineração acrescentaram pelo menos mais 0,4% a esse valor. Especialistas em energia citados pela Scientific American estimam que pelo menos um milhão e meio de unidades de servidores de IA somente em adaptadores NVIDIA serão implementados globalmente até 2027, e que seu consumo total de energia excederá 85 TWh anualmente. É por isso que estamos falando especificamente de reatores nucleares – hoje simplesmente não há alternativa a eles em termos de eficiência de geração de 1 kWh convencional (com a suposição comum de que a fusão a frio permanecerá indomada nos próximos 5 a 10 anos).
Além disso, a previsão feita no final de 2023 relativamente a 85 TWh de energia consumida pela IA por ano pode, na verdade, revelar-se uma estimativa inferior demasiado optimista: segundo a Bloomberg, os organizadores dos centros de dados na Virgínia do Norte já estão à procura de a oportunidade de reservar vários gigawatts de capacidade de reator nuclear no estado, e o número de startups apoiadas por Sam Altman, chefe da notória OpenAI, foi recentemente complementado por Oklo, que está desenvolvendo reatores nucleares de baixa potência – cada um dos quais é perfeitamente adequado para alimentar um data center de IA de médio porte. Um fato interessante: representantes da própria Oklo disseram confidencialmente à NBC News que coordenar projetos com reguladores e coletar todas as licenças necessárias exige muito mais esforço deles do que procurar clientes em potencial, entre os quais os hiperscaladores que dependem de IA estão longe de ser o último lugar. Em suma, embora a escassez de adaptadores de IA para servidores NVIDIA prometa ser resolvida em breve, o rápido crescimento no uso de modelos generativos “pesados” (não adequados para execução, muito menos para treinamento em hardware doméstico) ameaça ser limitado no médio prazo devido a uma escassez aguda de electricidade.
Ou ainda não é uma ameaça?
⇡#Dogmática útil
A eficiência energética do cérebro humano causa grande inveja entre os engenheiros de microeletrônica: digamos, para cálculos com desempenho de aproximadamente 1 exaflops (1.018 operações por segundo), um supercomputador moderno do nível Oak Ridge Frontier tem que gastar até 20 MW – enquanto o cérebro de um grande mestre de xadrez convencional enquanto pensa em um jogo complexo (para vencê-lo, o supercomputador terá que espremer, se não a totalidade desse mesmo 1 EFLOPS, então uma parte notável dele) custará aproximadamente vinte watts de poder. Sim, à medida que os padrões tecnológicos para a produção de chips semicondutores são miniaturizados, a sua eficiência energética está a aumentar, mas, infelizmente, a um ritmo que não é de forma alguma suficiente para reduzir a enorme lacuna de várias ordens decimais.
Um supercomputador, é claro, é capaz de resolver uma série de problemas com muito mais eficiência do que a pessoa mais notável – estamos falando de cálculos precisos e bem algoritmodos. Os problemas começam onde a algoritmização deixa de ser uma estratégia ideal. O mesmo jogo de xadrez não é tecnicamente difícil de reduzir em qualquer fase a uma simples enumeração de todas as opções possíveis para um movimento que pode ser feito na posição atual neste momento, mais todas as opções secundárias (e subsequentes) que geram cada movimento proposto. Esta tarefa é altamente algorítmica; o único problema é que o número total de opções de posição que se ramificam em cada etapa acaba sendo excessivamente grande, o que obriga os computadores construídos de acordo com os princípios de von Neumann a gastar muita energia em tais cálculos. O cérebro biológico é estruturado de forma diferente e não depende tanto de cálculos exatos (tente elevar imediatamente o número π à potência da base do logaritmo natural e com uma precisão de pelo menos FP8 – e para um computador isso é um pouco mais complexo problema do que “3,0 elevado à potência 2,0″), quanto para avaliações qualitativas generalizantes e heurísticas. E é precisamente em termos de desenvolvimento de tais sistemas de computação que se baseariam em princípios biológicos semelhantes que a fotónica revela-se uma direção extremamente promissora.
No final do século XIX, quando os microscópios ópticos, imperfeitos para os padrões atuais, não permitiam discernir claramente a estrutura do tecido biológico, a doutrina do neurônio foi estabelecida na ciência – a ideia de uma célula especializada isolada , um neurônio, como unidade estrutural e funcional básica do sistema nervoso. Hoje se sabe que o cérebro humano consiste em 80-120 bilhões de neurônios de muitas variedades, conectados entre si por contatos organizados de forma bastante complexa – sinapses. Do ponto de vista neurobiológico, este é um ponto significativo: há pouco mais de cem anos, vários pesquisadores sérios, incluindo o inventor da “reação negra” Camillo Golgi, opuseram a doutrina neural à hipótese reticular – a suposição de que a rede de conexões na substância cinzenta do cérebro é contínua , e os nódulos-neurônios em sua composição, precisamente graças a essa estrutura de transporte contínua, trocam diretamente certas “substâncias plasmáticas”, que é a que se resume a atividade nervosa.
O dogma neuronal implica uma organização muito mais complexa – indireta, por meio de sinapses – da transferência de excitação entre neurônios individuais. Cada um desses neurônios, como foi confirmado por observações diretas já em meados do século 20, contém várias projeções protoplasmáticas chamadas dendritos – eles recebem sinais de outros neurônios, pré-processam-nos e transmitem-nos ao corpo celular. O próprio corpo celular é responsável pelo processamento final dos sinais provenientes de todos os dendritos e pela formação de um único sinal de saída. E isso, por sua vez, é transmitido ao longo do axônio – uma fibra estendida, que no final se ramifica em muitas colaterais que formam contatos sinápticos no tecido nervoso com os dendritos de outros neurônios.
À primeira vista, pode parecer que as redes neurais de computador com o design atualmente geralmente aceito – em muitas camadas de perceptrons, perceptrons multicamadas (MLP) – implementam precisamente a hipótese reticular rejeitada pelos neurocientistas. Afinal, nos diagramas que ilustram camadas de neurônios artificiais permeadas por conexões mútuas, não há limites complexos entre seus nós individuais. Porém, na verdade, o LLM moderno e outros sistemas de aprendizado de máquina incorporam precisamente a doutrina neural, uma vez que o próprio aprendizado se reduz à formação de um determinado conjunto de pesos nas entradas de cada um dos perceptrons em cada uma das camadas de trabalho da rede neural. (lembre-se que as redes neurais digitais são implementadas na forma de abstrações matemáticas – por emulação em máquinas de von Neumann: um neurônio corresponde a um modelo perceptron com muitas entradas e saídas; as primeiras podem ser interpretadas como dendritos, as últimas como colaterais no final de um axônio). E isso corresponde exatamente às peculiaridades da estrutura neural do sistema nervoso: nos dendritos, no processo de passagem de sinais (aprendizado no sentido mais amplo da palavra), formam-se as chamadas espinhas dendríticas – protuberâncias especiais da membrana, que, na verdade, tornam-se a base para a formação de sinapses. Durante o treinamento, o número de picos aumenta comprovadamente, o que pode ser considerado um análogo direto do ajuste dos pesos nas entradas dos perceptrons durante o aprendizado de máquina. A hipótese reticular assumiu que os canais entre os nós da rede neural são puramente de transporte, ponta a ponta, e que todas as operações de processamento de dados são realizadas nos próprios corpos dos neurônios. Por falar nisso,A estrutura da Rede Kolmogorov-Arnold (KAN), recentemente proposta como alternativa ao MLP, passa de pesos lineares nas entradas dos perceptrons para funções de ativação que podem ser aprendidas, o que aproxima ainda mais o sistema de neurônios artificiais de seu protótipo natural.
A diferença fundamental entre redes neurais biológicas e digitais, é claro, permanece, e não apenas no nível da estrutura geral (no cérebro, os neurônios são agrupados em seções especializadas – zonas – para resolver vários problemas, enquanto modelos modernos de redes neurais neste sentido são em sua maior parte “homogêneos” “), mas também na aplicação à organização de contatos interneurônios. Afinal, as sinapses podem ser puramente elétricas, puramente químicas ou mistas, e o trabalho dos dois últimos tipos é muito influenciado pelos neuromoduladores – substâncias químicas que entram de uma forma ou de outra no ambiente do tecido nervoso e modificam a passagem de o sinal através da fenda sináptica. No entanto, talvez, pelo menos no atual estágio de desenvolvimento tecnológico, a humanidade esteja ainda mais tranquila com o fato de que redes neurais já muitas vezes alucinantes não são capazes de ser artificialmente “revigoradas” pela injeção de análogos digitais de algumas dessas substâncias neuromoduladoras.
⇡#Mas não é exatamente
A vantagem fundamental dos cálculos realizados pelas máquinas de von Neumann com execução sequencial de operações, como já foi observado, é a sua precisão, determinada, por sua vez, pela álgebra booleana subjacente às operações que realizam. Quando qualquer variável pode assumir apenas um de dois valores – “verdadeiro” ou “falso”, e o procedimento de cálculo é claramente definido algoritmicamente, não surgem problemas em alcançar qualquer precisão: para o notório número π, digamos, aproximadamente cem trilhões de dígitos após a vírgula. É verdade que os computadores da arquitetura von Neumann têm pelo menos três pontos fracos: o tempo necessário para realizar cálculos complicados (para algumas tarefas excede a estimativa da duração real da existência do nosso Universo), a quantidade de energia consumida no processo de este tipo de cálculos (e olá novamente, usinas nucleares!), bem como a incapacidade de resolver problemas complexos com eficácia na ausência de um algoritmo claramente definido, pelo menos qualitativamente. Um exemplo clássico é o problema do caixeiro viajante: foi provado que não existe um algoritmo de solução para ele que teria pelo menos complexidade de lei de potência (ou seja, para o qual o número de etapas de cálculo é uma constante elevada à potência de n, onde n é o número de destinos no mapa desse mesmo caixeiro-viajante).
Como qualquer instrumento feito pelo homem, o computador de von Neumann provou ser adequado para uma determinada, embora muito ampla, gama de tarefas, mas fora desta área a sabedoria da sua utilização torna-se cada vez mais questionável. Por exemplo, calcular a trajetória de lançamento de uma estação espacial até Plutão e posteriormente até os objetos do Cinturão de Kuiper é apenas uma tarefa para um sistema de computador operando retilíneo na estrutura da álgebra booleana: as leis da mecânica celeste são perfeitamente algoritmizadas, e se surgirem algumas perturbações durante a viagem, não será difícil corrigir o curso da mesma forma através de um impulso claramente calculado do sistema de propulsão a bordo.
Mas um dispositivo minúsculo (em comparação até mesmo com o asteróide mais sobrecarregado) no infinito vazio cósmico é afetado apenas por um número limitado de forças significativas: o impulso inicial dado a ele pelo estágio superior do foguete, o campo gravitacional do Sol, a atração de um ou dois planetas próximos em cada seção da trajetória, e todo o resto pode ser desprezado com muito boa precisão. Infelizmente, problemas desse tipo, a rigor, não ocorrem com muita frequência na natureza: situações são muito mais comuns quando é necessário levar em conta a interação de um grande número de forças relativamente pequenas, mas quase iguais ao mesmo tempo. Bem, digamos, como calcular a forma que o filme de sabão mais comum terá, preso a uma armação de arame? Não há incerteza aqui: é bem sabido que as forças de tensão superficial certamente forçarão a superfície a dobrar-se de forma a minimizar a energia potencial gerada por essas próprias forças. Mas quanto mais complexo o formato do quadro, mais complicados se tornam os cálculos algorítmicos, enquanto no mundo real o filme de sabão assume a forma “desejada” em algum quadro poligonal em forma de estrela, e até mesmo não plano, com o mesmo facilidade como perfeitamente anular, sem fazer quaisquer cálculos preliminares.
Este é precisamente o ponto chave para entender por que, simultaneamente aos computadores von Neumann, a humanidade também precisava de redes neurais computacionais. Estas últimas não são de forma alguma um desenvolvimento evolutivo das primeiras; uma enorme classe de problemas importantes que exigem uma solução exata de acordo com algoritmos estritamente especificados, os sistemas baseados na lógica booleana continuarão a funcionar com sucesso em dez e, presumivelmente, em cem anos. Mas há outra classe, talvez ainda mais extensa, que implica um processamento paralelo eficaz de grandes quantidades de dados usando heurística de máquina, que não é determinada algoritmicamente, mas é desenvolvida, como a intuição humana, com base no treinamento – para esta categoria de problemas existe não há como sem computadores de rede neural não ser suficiente. E é muito mais razoável usar plataformas de hardware especializadas para sua construção – a mesma optoeletrônica – em vez de emulá-las repetidamente em servidores von Neumann de altíssima velocidade e monstruosamente famintos por energia. Para entender a escala do problema: os analistas da Agência Internacional de Energia estimaram o consumo de energia para processar uma única solicitação ao ChatGPT em 2,9 Wh, enquanto o processamento de uma solicitação do usuário para um mecanismo de busca padrão custa, por exemplo, os data centers do Google, 0,3 Wh.
A rigor, os microcircuitos de arquiteturas de semicondutores hoje familiares também contêm basicamente unidades elementares – interruptores, também conhecidos como transistores – a partir dos quais, através dos esforços dos projetistas e fabricantes de VLSI, os cursos de Schaeffer que consideramos anteriormente são montados sequencialmente, depois somadores e circuitos ainda mais complexos. Mas o fato é que mesmo esses elementos básicos estão sujeitos às leis da álgebra booleana – eles produzem estritamente um ou estritamente zero na saída, dependendo de seu design e dos valores dos sinais de entrada – e, portanto, estão condenados para produzir cálculos extremamente precisos. Simplesmente não há espaço para a aprendizagem e para a heurística que ela gera (se for organizada adequadamente, é claro), e não há necessidade de falar sobre a eficiência energética da computação de semicondutores. Os neurônios biológicos são estruturados de maneira completamente diferente, portanto, escolher sistemas físicos adequados para reproduzir adequadamente os princípios de sua operação certamente deveria ser energeticamente mais lucrativo do que emulá-los com perceptrons virtuais na RAM de uma máquina de von Neumann.
É mais lucrativo porque construir uma rede universal verdadeiramente bem treinada (e não apenas uma que distinga, digamos, gatos de cães com base em uma foto e nada mais), e mesmo de acordo com os padrões de qualidade atuais e uma rede neural multimodal, são necessários bilhões de neurônios e, portanto, qualquer ganho em eficiência energética ao nível de um desses elementos básicos resultará em uma enorme vantagem para o sistema final em termos de custo-benefício dos cálculos realizados. E, como já observámos, quanto mais a humanidade depende de uma variedade de modelos de aprendizagem automática (não apenas generativos), mais aguda se torna a questão: estará ela preparada para alocar uma parte cada vez mais significativa do seu orçamento energético global para a execução e treinamento desses modelos?
⇡#DE REPENTE, SQUID
Comparar diretamente o cérebro biológico com sistemas de computação semicondutores, no nível dos elementos básicos, não é a favor do primeiro: o sinal através das sinapses químicas obviamente viaja mais devagar do que os elétrons se movem ao longo dos canais que ele abre com portas de transistor. No entanto, a vantagem de uma estrutura de rede neural distribuída com sua capacidade inerente de aprender sobre circuitos integrados que são rigidamente ossificados na estrutura da álgebra booleana revela-se impressionante. Assim, recentemente, pesquisadores do Instituto de Tecnologia de Massachusetts provaram experimentalmente que todo o processo de reconhecimento de imagem – desde o aparecimento de uma imagem diante dos olhos do sujeito até sua categorização geral pelo cérebro – leva apenas 13 milissegundos, enquanto anteriormente demorava acreditava-se que isso poderia levar 100 ms e até mais. Estamos falando especificamente de atribuir uma imagem a uma determinada categoria grande – “paisagem”, “homem”, “quadrúpede” – e não de percebê-la em todos os seus detalhes, é claro; mas ainda assim impressionante. É tão impressionante que está forçando os neurocientistas a reconsiderar ideias de décadas sobre como o tecido nervoso realmente funciona. Isso significa que os desenvolvedores de redes neurais artificiais têm novos motivos para pensar.
A descrição clássica do trabalho de um neurônio (córtex visual, em particular) implica a coleta de longas séries de impulsos de sinal dos axônios de vizinhos “superiores” através de dendritos, a agregação desses impulsos em seu próprio corpo, a formação de um sinal de saída e sua transmissão através de seu axônio. Tudo deveria levar, se você contar meticulosamente todos os movimentos dos íons (portadores de carga) através das fendas sinápticas, mais de cem milissegundos. Os experimentos de pesquisadores do MIT e seus antecessores mostraram que alguns neurônios do córtex visual economizam na execução do ciclo completo “acumulação de dados de entrada – cálculo – envio de um sinal para a saída” e literalmente imediatamente, ao receber dois ou três impulsos nervosos, eles já estão formando seu sinal de saída. Isso leva à seguinte conclusão: para o disparo de um neurônio (pelo menos alguns deles), não apenas o número de impulsos de saída recebidos desempenha um papel importante, mas também os atrasos entre eles – tão importantes que a categorização geral da imagem torna-se possível literalmente “com duas notas”; mais precisamente, por dois, ou mesmo um intervalo característico entre pulsos.
É claro que tais habilidades surgem apenas durante a aprendizagem e que após a atribuição inicial de uma imagem a algum grupo, de acordo com uma avaliação aproximada desses mesmos neurônios “de disparo rápido”, ocorre uma verificação mais completa quando sinais de pessoas mais “pensativas” seus colegas. Mas o fato permanece: uma rede neural biológica, devido a um espessamento ainda maior das operações realizadas (já longe dos altos padrões de álgebra booleana estabelecidos pelos sistemas de computação semicondutores), consegue superar suas próprias limitações objetivas e demonstrar desempenho por watt de energia gasta muito maior do que o esperado. As redes neurais artificiais têm algo pelo que lutar!
E eles, de fato, se esforçam, contando, entre outras coisas, com a base de elementos optoeletrônicos. Sim, claro, do ponto de vista da produção, é mais fácil para os desenvolvedores lidar com estruturas semicondutoras, de uma forma ou de outra arrancadas do abraço apertado da álgebra booleana – por exemplo, é possível, afinal, consertar o próprio fato “há um sinal – não há sinal” na saída de um determinado circuito para medir com precisão o valor corrente de saída e, com base nesse valor, tomar outras decisões – por exemplo, transmitir o sinal mais adiante no circuito ou não (implementação da sinapse artificial mais simples). Mas os transistores localizados em um plano e conectados por barramentos metálicos em camadas de interconexão ainda têm capacidade extremamente limitada de formar estruturas verdadeiramente semelhantes a neurônios.
Por exemplo: em um estudo publicado em 2001 por pesquisadores do Google e de Harvard, descobriu-se que para 86 bilhões de neurônios no cérebro estudado existem cerca de 100 trilhões de sinapses – ou seja, em média, cada neurônio mantém cerca de 1 mil contatos com seus vizinhos (além disso, aliás, uma proporção significativa da amostra, até 10%, consiste em contatos multissinápticos entre o dendrito de um neurônio e o axônio colateral de outro, o que complica ainda mais a estrutura de transmissão do sinal nervoso). Um circuito semelhante a um neurônio semicondutor é fisicamente incapaz de entrar em contato com mais de uma dúzia de vizinhos – caso contrário, a estrutura das interconexões torna-se excessivamente complexa, mesmo (e ainda mais) se for implementada usando microcircuitos multicamadas. Também não devemos esquecer que para chips multicamadas, como já dissemos, uma das limitações mais importantes ao crescimento da produtividade é a dificuldade de dissipação de calor das camadas intermediárias, porque a eficiência energética passo a passo é baixa (no sentido da quantidade de calor dissipado durante a produção de cada operação booleana elementar, ou seja, mudar “1” para “0” ou voltar durante a passagem de um sinal ao longo de um determinado circuito) de VLSIs semicondutores não desapareceu.
Uma maneira lógica de contornar essa limitação parece ser a multiplexação de sinais – quando um único canal de comunicação é usado para transmitir vários fluxos de informações ao mesmo tempo. Quando aplicada a semicondutores, a multiplexação é complicada pela necessidade de distinguir com precisão gradações sutis dos valores da carga transferida (já extremamente pequena em módulo, aliás, se falarmos dos barramentos internos de circuitos integrados) em circuitos elétricos . O quão grande é a complexidade da tarefa pode ser avaliada pela transição extremamente lenta das células de memória NAND de nível único para as de três e quatro níveis, que durou muitos anos, bem como pelas críticas bastante duras aos promissores cinco – os de nível em termos da proporção de vantagens e desvantagens que oferecem – em comparação com os mesmos quatro níveis. E isso se aplica apenas ao armazenamento de dados – com sinais que mudam dinamicamente em circuitos elétricos, a situação é ainda mais complicada.
Mas a multiplexação funciona muito bem para linhas de comunicação de fibra óptica – o que significa que também será eficaz para sistemas optoeletrônicos! Além de criar os próprios perceptrons (por exemplo, combinando multiplexação temporal e espacial), é possível integrar diretamente a fotônica com efeitos quânticos conectando nós supercondutores nos quais a interferência quântica é realizada com guias de onda de multiplexação. Isto pode parecer uma complicação excessiva da tecnologia: qual é, pode-se perguntar, a lógica de saltar do estágio das redes neurais “comuns” com o desenvolvimento consistente de todas as tecnologias e processos necessários diretamente para os quânticos? Sim, o fato é que um circuito computacional “regular” precisa ser mantido em certas áreas do sinal por um tempo suficientemente longo – por exemplo, enquanto se aguarda o fim de certos cálculos paralelos. Para tanto, a fotônica utiliza cavidades ópticas, nas quais se forma uma onda de luz estacionária – conjuntos bastante volumosos de elementos reflexivos, cujas perdas são bastante grandes, o que, infelizmente, reduz a eficiência energética do computador final. Além disso, cada ressonador óptico é sintonizado estritamente em um único comprimento de onda, o que complica ainda mais o projeto de circuitos optoeletrônicos com guias de onda de multiplexação de frequência.
Especialistas do Instituto Nacional Americano de Padrões e Tecnologia (NIST) propuseram um circuito de computação híbrido para resolver este problema, que pode ser considerado um análogo de uma sinapse biológica – uma conexão interneurônio: é seu comportamento que determina se (e qual deles ) será transmitido um impulso do axônio colateral do neurônio anterior na cadeia de sinal condicional para o dendrito do próximo. A ideia engenhosa deste grupo é que eles não apenas reduziram o consumo de energia do sistema de computação final, mas o reduziram quase ao mínimo fundamentalmente possível – já que a unidade de transmissão de informação nele é exatamente um fóton (o que , pergunta-se, poderia ser mais eficiente em termos energéticos?! Talvez isso tenha sido devido ao efeito Josephson, ou mais precisamente, às junções Josephson implementadas em sua base.
Um circuito supercondutor com um par dessas transições forma um dispositivo supercondutor de interferência quântica (SQUID), cuja corrente no circuito varia de zero (se as correntes em cada um dos loops supercondutores que o formam forem multidirecionais) a um certo valor máximo (se ocorrer reforço mútuo de correntes codirecionadas). A maior sensibilidade do SQUID à magnitude do campo magnético na região onde estão localizadas as junções Josephson permite detectar fótons únicos – que por si só não carregam carga, mas criam um campo eletromagnético no processo de movimento (mais precisamente , eles próprios são este campo – seus quanta reais).
O sistema híbrido resultante permite reconhecer sinais que duram apenas 2 picossegundos e, após cada fóton passar pelo detector, a quantidade de corrente que circula em seus circuitos supercondutores aumenta em uma “unidade” convencional. Acontece que é uma espécie de análogo de uma sinapse biológica – tudo o que resta é transmitir o sinal acumulado para um determinado perceptron externo ao SQUID (como exatamente isso será implementado é uma questão separada). Os pesquisadores afirmam que a frequência máxima de disparo de sua sinapse excede 10 MHz e o consumo de energia está no nível de 3,3 × 10−17 J por fóton. Para efeito de comparação, o “poder de resolução” máximo dos neurônios no cérebro humano é estimado em 340 Hz, e eles gastam aproximadamente 10-14 J de energia no registro de cada evento sináptico. Em suma, o NIST conseguiu criar (não apenas projetar, mas. implementar na prática) um análogo de uma sinapse biológica, que se revelou ainda várias ordens de grandeza mais eficaz do que o seu protótipo.
É claro que é muito cedo para comemorar outra vitória sobre a matéria inerte e proclamar o início da era das neurocomputações ultraeconômicas – as sinapses do SQUID com guias de onda de fóton único por si só não são suficientes para isso; ainda é necessário selecionar e implementar perceptrons “em metal” que não sejam muito inferiores a eles em eficiência. Mas esta direcção de desenvolvimento da fotónica quântica já é considerada extremamente promissora, especialmente porque o prémio para atingir o objectivo aqui desejado é mais do que invejável, mesmo tendo em conta os investimentos obviamente em grande escala necessários – poupando muitas dezenas de terawatts-hora de eletricidade em escala planetária anualmente.
Materiais relacionados
A equipe da missão Europa Clipper da NASA para procurar o oceano subgelo e a…
Hoje, 26 de novembro, durante os testes do veículo lançador de propelente sólido Epsilon S…
Fundado em 2021 pelo cocriador da trilogia Mass Effect e veterano da BioWare, Casey Hudson,…
A correção do mercado de criptomoedas causada pela queda do Bitcoin (BTC) continua pelo terceiro…
Representantes do Telegram disseram aos investidores que a detenção do CEO da empresa, Pavel Durov,…
Se a Apple tentar implementar o seu próprio sistema de inteligência artificial na China, terá…