A IA generativa consome uma quantidade extremamente alta de energia. Uma requisição para Gemini, ChatGPT ou Grok força os servidores que a processam a consumirem de 7 a 10 vezes mais energia do que uma requisição típica de um mecanismo de busca. O Google estima que seus data centers terão consumido 30,8 TWh até 2024 — não apenas desenhando imagens de gatos, é claro, mas principalmente resolvendo problemas de IA. A Agência Internacional de Energia prevê que, até 2030, todos os data centers do planeta consumirão coletivamente 945 TWh de energia — aproximadamente o dobro do consumo do ano passado. Embora os data centers atualmente consumam quase 1,5% de toda a eletricidade gerada na Terra por qualquer meio, em poucos anos, essa participação subirá para 3%. E ainda não está totalmente claro quais serão os limites naturais (além da impossibilidade física de construir novas usinas de energia) desse crescimento, já que a demanda por computação generativa só aumenta, apesar das lamentações persistentes sobre o improvável colapso iminente da “bolha da IA”. Em 2025, segundo a Gartner, servidores otimizados para processamento de IA representavam 21% do consumo total de energia de data centers; em 2030, esse número não será inferior a 44%. Não é o preço — em terawatts-hora — que a humanidade está pagando muito alto pela capacidade de, a qualquer momento, sempre que o pensamento nos ocorre, perguntar a redes neurais se um sanduíche deixado na mesa lamentará a morte de seu criador ou como escrever uma balada de rap sobre a vida de uma batata?

Em primeiro lugar, a computação termodinâmica é simplesmente fascinante (fonte: Extropic).

Em 2019, um grande grupo de pesquisadores representando o Computing Community Consortium (CCC, parte da Computing Research Association sob os auspícios da Fundação Nacional de Ciência dos EUA) propôs que a indústria global de TI prestasse atenção à computação termodinâmica, um campo promissor especialmente para a resolução de problemas de IA. A abordagem escolhida foi verdadeiramente extraordinária: afinal, os princípios da termodinâmica são universais e se aplicam de forma completamente independente dos corpos físicos que compõem um determinado sistema macroscópico — sistemas computacionais em particular. Em outras palavras, um chip semicondutor convencional, um processador fotônico e até mesmo um computador quântico baseado em circuitos oscilatórios de tamanho micrométrico obedecem aos postulados da termodinâmica de uma forma ou de outra. Então, qual é o objetivo de falar especificamente sobre computação termodinâmica? Mas o fato é que, para todos os sistemas de resolução de tarefas mencionados anteriormente, as manifestações dos princípios da termodinâmica são, em sua maioria, prejudiciais: perturbações térmicas fazem com que os elétrons se desviem de seus caminhos corretos, o aquecimento de elementos ópticos leva à sua deformação e ao embaçamento dos feixes de fótons, e já descrevemos em detalhes como os computadores quânticos sofrem com as manifestações das imperfeições macroscópicas de seus componentes.

⇡#Você simplesmente não sabe como preparar o calor

A ideia dos cálculos termodinâmicos se resume ao ditado imortal: “Quem nos atrapalha é quem nos ajuda”. Afinal, influências prejudiciaisO impacto da termodinâmica nos processos computacionais se resume não apenas à introdução persistente, mas inevitável, de um componente aleatório (estocástico) nas operações originalmente rigorosas do ponto de vista matemático, realizadas por um determinado circuito. Por uma feliz coincidência, existe uma classe inteira de problemas computacionais não só conhecida, mas amplamente procurada, para a qual a estocasticidade deixa de ser um incômodo e se torna um elemento integral do processo autorregressivo fundamental. São precisamente esses modelos generativos de inteligência artificial que estão consumindo uma parcela cada vez maior do orçamento energético da humanidade. Então, não seria hora de abandonar as variáveis ​​aleatórias artificiais, geradas digitalmente, necessárias para as redes neurais (e o enorme gasto de energia necessário para dissipar o calor dos processadores que geram essas variáveis) e, em vez disso, extrair a porção necessária de estocasticidade diretamente da natureza; do movimento térmico das partículas elementares que compõem o dispositivo computacional?

Um diagrama conceitual de um sistema de computação termodinâmica. No topo, um computador clássico: uma máquina física que executa operações matemáticas ideais (considerando, é claro, os inevitáveis ​​erros gerados pelas imperfeições de seu hardware) em um espaço virtual. Ele é inteiramente dependente de pessoas: somente através delas — que criam seus circuitos lógicos, preparam e inserem dados — é que interage com o mundo real. Na base, um computador termodinâmico com acesso ao ambiente independente de humanos (projetistas de chips, programadores, etc.). Durante o processo computacional, ele está sujeito a uma evolução complexa, multinível, recorrente e adaptativa, que os humanos só podem direcionar definindo certas restrições em suas conexões com o ambiente. Além disso, o computador termodinâmico também fornece feedback ao seu ambiente, influenciando potenciais energéticos que podem ser usados ​​como entrada (fonte: CCC).

“Chegou a hora”, decidiu o CCC, e apresentou sua visão de como a computação termodinâmica poderia se desenvolver, beneficiando o planeta (cuja atmosfera, à medida que essas tecnologias progridem, deverá emitir menos calor do que a Agência Internacional de Energia prevê atualmente) e seus habitantes ávidos por inteligência artificial. A ideia geral é aproveitar as manifestações naturais da termodinâmica de não equilíbrio para realizar operações computacionais usando algoritmos específicos, começando com o processo autorregressivo mencionado anteriormente. De acordo com pesquisadores (e pioneiros na área, aliás), a termodinâmica(Os computadores TDV já estão sendo produzidos em pequenos lotes, e falaremos sobre eles em breve.) O aumento de desempenho por watt é de aproximadamente 100 vezes para a maioria das tarefas que exigem computação estocástica e de quase 10.000 vezes em alguns casos excepcionalmente bem-sucedidos.

A maioria dos computadores em operação hoje é construída de acordo com os princípios arquitetônicos de von Neumann, que, em linhas gerais, abstraem os componentes individuais de um sistema computacional — dispositivos de entrada/saída, memória e processador — da base física sobre a qual são implementados. Por um lado, essa é uma abordagem extremamente produtiva: graças a ela, algoritmos desenvolvidos para computadores de relés e válvulas eletrônicas foram facilmente adaptados para execução em sistemas semicondutores com a mesma arquitetura fundamental — lógica. Por outro lado, a abstração implícita pelos princípios de von Neumann em relação às características específicas de implementação das estruturas em níveis inferiores condena os engenheiros — tanto de hardware quanto de software — a seguir o caminho da simplificação excessiva das tarefas que enfrentam.

Uma representação visual da eficácia de quatro abordagens diferentes para aprimorar a computação. Cada abordagem afeta mais camadas do sistema computacional do que a anterior e introduz mais perturbações, exigindo uma reestruturação significativa da arquitetura de hardware e software. Os cálculos termodinâmicos, que violam os princípios de von Neumann, se enquadram na categoria 4, portanto, sua implementação exigiria uma reformulação completa de todas as camadas da arquitetura computacional existente (fonte: IEEE Rebooting Computing).

Isso em si parece uma boa ideia: um somador Scheffer no próximo processador pode ser projetado de forma aproximada com apenas uma compreensão geral das propriedades das portas lógicas e dos barramentos que o somam, sem considerar exatamente como esses elementos serão implementados em um substrato de silício ou quais propriedades físicas cada um deles possuirá individualmente. Sim, posteriormente, durante a adaptação do projeto criado na plataforma CAD aos processos tecnológicos específicos utilizados em uma determinada fábrica de chips, alguns ajustes serão necessários (por exemplo, os processos tecnológicos formais de “3 nm” na TSMC e na Samsung diferem bastante), mas o engenheiro de projeto de uma empresa fabless inicialmente fica bastante satisfeito com o nível de abstração em que trabalha. O mesmo se aplica à programação: a partir de um conjunto de bibliotecas, como “caixas-pretas” com entradas e saídas bem documentadas, é perfeitamente possível criar um código que funcione corretamente. Provavelmente não é o ideal, já que o funcionamento interno de cada biblioteca…O sistema subjacente, incluindo quaisquer soluções subótimas e erros ocultos, permanecerá intacto — mas ainda produzirá os resultados esperados.

A desvantagem da granularidade grosseira, como bem apontado pelos pesquisadores do CCC, é que os dispositivos e algoritmos construídos com ela são completamente dissociados da realidade física; mais precisamente, completamente indiferentes a ela. O computador é transformado em uma máquina de estados abstrata (uma máquina de estados finitos, uma máquina de memória), lidando exclusivamente com zeros e uns dentro de uma sequência determinística e cuidadosamente elaborada de transições de estado, cada uma das quais dissipa uma pequena, porém mensurável, quantidade de calor no espaço. Até mesmo a operação do notório modelo autorregressivo de grande linguagem é reduzida a operações de multiplicação de matrizes com a adição de um termo estocástico — que, por sua vez, é gerado por circuitos semicondutores que geram números pseudoaleatórios. Além disso, pode-se dizer que, de acordo com um algoritmo determinístico (números verdadeiramente aleatórios são produzidos pelos geradores correspondentes, TRNG, geradores de números aleatórios verdadeiros, mas exploram os fenômenos verdadeiramente estocásticos da realidade física – formando uma espécie de ilha não-von Neumann em uma arquitetura de computador construída de acordo com o cânone).

Variação sequencial da entropia de um pequeno circuito lógico durante a computação. O circuito inicia sua operação em um estado herdado da execução anterior (círculos cinza), com todos os valores das portas inicialmente interconectados (e, portanto, a entropia total do sistema é baixa), visto que a execução anterior já havia produzido um resultado logicamente determinado. Em seguida, os dados de entrada são atualizados (círculos rosa), e seus valores deixam de estar logicamente relacionados aos armazenados nas células restantes do circuito — a entropia do circuito aumenta. À medida que os portões disparam sequencialmente, o nível de entropia retorna a um mínimo através da formação de correlações lógicas entre as células conforme os cálculos são realizados — o que naturalmente leva à geração de calor (fonte: arxiv.org/abs/2504.04031v3)

⇡#Entropia ao Resgate

Mas, pensando bem, isso é um completo absurdo: os princípios termodinâmicos inerentes a qualquer corpo macroscópico são deliberadamente ignorados pelos engenheiros — e, em vez disso, por meio de uma série de truques que consomem muita energia, um sistema inerentemente estocástico é forçado a gerar ruído pseudoaleatório. De acordo com o princípio de Landauer, a perda de um único bit de informação em qualquer sistema computacional libera uma certa quantidade mínima de calor, o que significa que qualquer computação determinística está fadada a aquecer o espaço — e isso é especialmente verdadeiro para operações matriciais com trilhões de operandos, que são típicas das modernas Máquinas de Navegação Bruta (BNMs). Na prática, as coisas são ainda mais complicadas: os sinais lógicos “0” e “1” são codificados em circuitos eletrônicos por meio de certos mecanismos.Valores de tensão com certas tolerâncias, o que significa que cada sinal é único em cada ponto específico do circuito lógico (onde está sujeito a vários campos de interferência, onde as propriedades específicas dos condutores submicrométricos, resistores e capacitores ali presentes se manifestam). Acontece que dois circuitos lógicos completamente idênticos dentro do mesmo chip, mesmo que localizados próximos um do outro, receberão sinais de entrada ligeiramente diferentes — pulsos de magnitudes ligeiramente diferentes, aparentemente codificando o mesmo “0” ou o mesmo “1” — e suas saídas também serão diferentes do ponto de vista físico, mesmo que logicamente idênticas.

O artigo do CCC formula essa ideia da seguinte forma: “O custo termodinâmico de um circuito lógico — isto é, a perda total de entropia em todos os seus estados durante sua operação, que deve ser dissipada como calor — depende da distribuição de estados nas entradas desse mesmo circuito.” Obviamente, esse custo varia bastante em toda a área do chip (e ainda mais em todas as suas camadas, se estivermos falando de chips 2.5D ou 3D) — aí está, a estocástica natural! Com essa ilustração, os pesquisadores explicam como funciona uma calculadora termodinâmica semicondutora: embora, é claro, uma variedade de bases de hardware para uma TDC possa ser escolhida, seria uma pena não aproveitar o nível atual de desenvolvimento da indústria de microprocessadores. Geralmente, essa calculadora recebe certos sinais (potenciais externos) como entrada, sob cuja influência seus circuitos fazem transições espontâneas e rápidas entre seus estados limite (condicionalmente).Correspondendo aos valores lógicos “0” e “1”), essas transições — em plena consonância com os princípios da termodinâmica de não equilíbrio — ao longo de um intervalo de tempo maior, por meio da implementação de processos adaptativos internos, levam o sistema complexo a um estado organizado. Paralelos diretos com computadores quânticos são evidentes aqui: os qubits também possuem estados de fronteira, e os circuitos compostos por eles também exploram as propriedades físicas de seu próprio projeto para realizar cálculos.

Nas coordenadas “tempo de execução característico de uma operação versus tamanho característico de um elemento computacional”, os computadores termodinâmicos ocupam uma posição intermediária entre os sistemas clássicos baseados nos princípios de von Neumann e os sistemas quânticos (fonte: CCC).

Os pesquisadores do CCC concebem um sistema de computação termodinâmica como um dispositivo híbrido que combina circuitos de computação termodinâmica propriamente ditos com hardware semicondutor clássico. Este último serve como interface para o acesso do usuário ao computador e como canal de feedback para a geração e interpretação dos resultados dos cálculos termodinâmicos. No entanto, diferentemente de um sistema convencional baseado na arquitetura de von Neumann, um sistema de computação termodinâmica recebe diretamente os potenciais elétricos do mundo real como entrada — em seus valores reais, sem a necessidade de interpretá-los artificialmente como zeros e uns lógicos — e esses potenciais, por sua vez, governam a evolução da organização interna do sistema termodinâmico. O papel do computador de controle clássico se reduz a definir restrições para o VTD (Vetor Termodinâmico de Computação) — selecionando valores específicos de potenciais externos e configurando fisicamente (diretamente ou por meio de uma interface de software, no caso de microcircuitos do tipo FPGA) o equipamento termodinâmico. O funcionamento deste equipamento resume-se essencialmente a uma implementação automatizada do método de descida de gradiente — a transição espontânea para estados de baixa energia dos blocos individuais (núcleos) que compõem o TDV, dependendo dos dados de entrada fornecidos a eles. Há uma semelhança notável aqui com a computação neuromórfica — exceto talvez pela evolução termofísica.Neste caso, o sistema multiconectado substitui a emulação de processos neurobiológicos.

⇡#Menos energia, mais cálculos

Apesar das perspectivas empolgantes — afinal, as tarefas de IA (especialmente as generativas) se resumem, em grande parte, à geração de distribuições de probabilidade — os cálculos termodinâmicos ainda estão em sua infância. No entanto, implementações práticas de cálculos termodinâmicos já são conhecidas. Por exemplo, a startup Extropic criou um chip CMOS termodinâmico projetado para funcionar com CPUs e GPUs padrão. Este dispositivo é baseado em bits probabilísticos (PITS) e unidades de amostragem termodinâmica (TSUs). Assim como os qubits, os pits existem em estados probabilísticos — não, porém, em todos os estados possíveis simultaneamente, de 0 a 1, mas em estados determinados a cada instante pela magnitude dos sinais de entrada (além, é claro, do caminho que esses sinais percorrem pelo circuito elétrico). As TSUs, por outro lado, são processadores especializados para computação de pits com eficiência energética. Claramente, ao operar com dados ruidosos, elas produzem uma saída ainda mais ruidosa. Mas Guillaume Verdon e Trevor McCourt, fundadores desta startup e originalmente especialistas em computação quântica, argumentam que o ruído térmico naturalmente aleatório e com distribuição normal no estado inicial das cavidades, após a aplicação de coeficientes de ponderação analógicos, permite, em última análise, um resultado completamente confiável — se for aplicada uma análise estatística ao sinal de saída. ImportanteOs produtos da Extropic também operam em temperatura ambiente e são projetados especificamente para cenários de uso híbrido, em conjunto com CPUs e GPUs convencionais.

Calculadora Termodinâmica Z1 TSU com 4 Milhões de Pontos (fonte: Extropic)

A computação híbrida com TDI naturalmente requer algoritmos híbridos, e estes também são oferecidos aos interessados ​​na forma da biblioteca de código aberto Thermal, escrita em Python. A principal característica da Thermal é a emulação do TDI da Extropic em uma GPU, permitindo que desenvolvedores terceirizados criem suas próprias soluções híbridas para uma ampla variedade de tarefas, principalmente relacionadas a modelos de IA. Além disso, a alta eficiência da termodinâmica computacional baseada em hardware pode ser verificada comparando o consumo de energia da resolução da mesma tarefa com a emulação do TDI em uma GPU e com um exemplo do mundo real. Após criar diversos protótipos, a empresa começou a finalizar o Z1 TSU — um (co)processador termodinâmico com quatro milhões de pontos interconectados — no final de 2025, pronto para produção comercial. Sim, pelos padrões modernos — assumindo que um ponto possa representar exatamente um coeficiente de ponderação de uma rede neural profunda multicamadas — isso não é muita coisa: os parâmetros dos atuais BNMs chegam aos trilhões. E para modelos de linguagem com um número relativamente pequeno de parâmetros, existem inúmeras aplicações onde a alta eficiência energética é crucial: robótica, visão computacional verdadeiramente autônoma (diretamente em um chip de baixo consumo embutido em uma câmera de segurança, por exemplo), carros autônomos e assim por diante. “A missão da computação termodinâmica é salvar o mundo e acelerar o progresso, proporcionando uma profunda sensação de satisfação e energia quase infinita.”—Trevor McCourt declarou com entusiasmo em 2024.

Outra startup que busca com sucesso a computação termodinâmica é a Normal Computing, que anunciou o desenvolvimento do processador CN101 em meados do ano passado. À primeira vista, não há muito de “normal” nele. Fisicamente, ele consiste em minúsculos componentes elétricos idênticos — circuitos oscilatórios com capacitores — que (em termos elétricos) se comportam como molas mecânicas acopladas entre si. A rigidez da mola corresponde à carga armazenada em cada capacitor e, graças à tendência de um sistema termodinâmico inicialmente em não equilíbrio atingir o equilíbrio após um período relativamente curto, as oscilações elétricas em tal sistema de computação termodinâmica são capazes de resolver (novamente, usando termodinâmica de não equilíbrio) problemas complexos e com múltiplos operandos, como a inversão de matrizes. É muito fácil acelerar o funcionamento do CN101: basta resfriá-lo, reduzindo assim o impacto do ruído térmico parasita e deixando apenas o ruído “necessário” gerado pela dispersão estocástica das cargas armazenadas nos capacitores.

Um dispositivo de computação estocástica de 8 células desenvolvido pela Normal Computing. À esquerda, uma foto da placa de circuito com células unitárias conectadas em uma topologia “todos para todos”; cada uma contém um circuito oscilatório e uma fonte de ruído de corrente gaussiana, como mostrado no diagrama esquemático no canto superior direito. O diagrama abaixo representa duas células unitárias acopladas capacitivamente (fonte: www.nature.com/articles/s41467-025-59011-x).

Outros grupos de pesquisa e startups estão explorando outras maneiras de implementar a Computação Dinâmica Termodinâmica (TDI): com base em memristores, junções de tunelamento magnético e até mesmo circuitos supercondutores. No Laboratório Nacional Lawrence Berkeley, pesquisadores propuseram o conceito de “neurônios termodinâmicos” não lineares que não exigem o retorno ao equilíbrio termodinâmico antes de iniciar um novo ciclo de computação. A ideia de Stephen Whitelam e seu colega Corneel Casert, coautores de um artigo publicado na Nature Communications sobre o tema, é aprender a controlar a evolução dos estados termodinâmicos dos elementos básicos de um circuito computacional, forçando-os a “evoluir” na direção desejada pelos experimentadores: “Se você pegar um dispositivo físico com uma escala de energia comparável à escala de energia térmica e deixá-lo em repouso, ele mudará seu estado ao longo do tempo devido às flutuações térmicas. O objetivo é programá-lo de forma que, desta vez, a evolução seja benéfica. A computação clássica e a quântica têm dificuldades com o ruído — mas é o ruído que faz a computação termodinâmica funcionar.” Usando modelagem digital, WhitelamCasert demonstrou que cálculos não lineares — semelhantes aos realizados por redes neurais — são de fato possíveis usando circuitos termodinâmicos que não necessariamente partem do equilíbrio. Isso expande significativamente o leque de algoritmos executáveis ​​em tal hardware, permitindo, em particular, que um circuito termodinâmico se comporte como um neurônio em uma rede neural biológica.

Os computadores termodinâmicos ainda estão em sua infância — mesmo em comparação com os computadores quânticos: existem muitas plataformas de hardware heterogêneas, poucos algoritmos eficientes e uma significativa falta de eficácia comprovada em aplicações híbridas acopladas a sistemas de von Neumann. Contudo, à medida que a demanda por energia para computação de IA continua a crescer, certamente ficará claro em algum momento que investir na aceleração do desenvolvimento da computação de IA — de preferência em diversas áreas concorrentes — é mais lucrativo e eficaz do que construir outro centro de dados de IA, completo com um mini-reator nuclear, em algum lugar ao norte do Círculo Polar Ártico. A economia, por mais ofensiva que possa soar aos visionários e evangelistas do progresso tecnológico “puro”, é o melhor e mais poderoso motor da ciência!

admin

Compartilhar
Publicado por
admin

Postagens recentes

As placas-mãe da Gigabyte também receberam suporte para memória HUDIMM de “meio tamanho”.

A Gigabyte lançou atualizações de BIOS para suas placas-mãe Intel das séries 800, 700 e…

2 horas atrás

A Lian Li lança a câmera compacta Vector V150 INF com espelho infinito.

A Lian Li lançou o gabinete Vector V150 INF, relativamente compacto. Embora as dimensões do…

3 horas atrás

A Microsoft iniciou os testes do upscaler universal Auto SR para Windows 11 – atualmente apenas no Xbox Ally X.

A Microsoft começou a testar o recurso de upscaling Auto SR no console portátil Xbox…

4 horas atrás

O assistente de IA Gemini estará presente em milhões de carros com tecnologia Google.

O Google começou a se preparar para atualizar seus veículos com o Google Assistente integrado,…

5 horas atrás