Em 2013, pesquisadores do Japão e da Alemanha utilizaram o quarto maior supercomputador do mundo na época (Fujitsu K; mais de 705.000 núcleos SPARC64 em 83.000 processadores; cerca de 1 PB de memória; 10,51 Pflops) para simular a atividade de aproximadamente 1% do volume total de tecido neural no cérebro humano. Esse volume, por sua vez, era um conjunto de 1,73 bilhão de neurônios, conectados por 10,4 trilhões de conexões sinápticas, modelado de forma bastante condicional, embora relativamente próximo ao protótipo biológico. Foram alocados 24 bytes para codificar os estados de cada sinapse — sistemas eletroquímicos altamente complexos — a fim de reproduzir a amplitude de sua atividade com a maior precisão possível. Assim, em 40 minutos de operação, o computador K conseguiu emular apenas um segundo de atividade cerebral — e isso foi obviamente assistemático; as conexões de sinal na colossal rede neural simulada na memória se formavam aleatoriamente e se desintegravam imediatamente.

O objetivo do experimento era demonstrar que os futuros supercomputadores exascale (naquela época) — com um desempenho de 10¹⁸ operações de ponto flutuante por segundo ou mais — seriam, sem dúvida, capazes de lidar com a emulação de todo o cérebro humano; talvez não em tempo real, mas pelo menos com alguma aproximação razoável. Infelizmente, nenhum dos quatro sistemas exascale em operação atualmente (no início de 2026) — El Capitan, Frontier, Aurora e JUPITER Booster — é capaz de resolver problemas desse nível de complexidade. Formalmente, tudo deveria parecer se encaixar: existem aproximadamente 100 bilhões de neurônios no cérebro, e o número total de sinapses (que,Aliás, elas são fundamentalmente plásticas: as conexões entre os neurônios se formam e desaparecem dependendo da idade do indivíduo, da dinâmica da ingestão de nutrientes pelo corpo, da intensidade e do tipo de carga sobre o sistema nervoso, etc.) é estimada na faixa de 10¹⁴ a 10¹⁵ unidades – ou seja, um supercomputador com capacidade de 1 a 10 Eflops seria formalmente suficiente.

A foto de apresentação do biochip desenvolvido por uma equipe da Universidade Johns Hopkins não mostra o tecido biológico computacional propriamente dito: sem sistemas de suporte à vida, colocar organelas em um recipiente de vidro não faz sentido, e os tubos e bombas obscureceriam a composição geral do dispositivo (fonte: Universidade Johns Hopkins).

Infelizmente, essa abordagem, como se vê, enfrenta inúmeros desafios, entre os quais o notório “gargalo” da engenharia de computadores moderna. Quanto mais operações elementares um sistema precisa executar (por exemplo, emular uma rede neural viva), mais denso se torna o fluxo de dados ao longo do barramento que conecta os núcleos computacionais e a RAM, onde os dados necessários para os cálculos são armazenados. A arquitetura de von Neumann, que está na base de praticamente todos os computadores semicondutores modernos, dita a separação física dos circuitos lógicos e do armazenamento de dados (tanto operacionais quanto persistentes). Nos estágios iniciais do desenvolvimento da microeletrônica, essa abordagem — flexível em termos da capacidade de aumentar independentemente o desempenho do processador e a quantidade de memória associada a ele — contribuiu enormemente para acelerar o progresso da TI. Mas, com o avanço da computação de redes neurais altamente paralelas, a arquitetura de von Neumann começou a se tornar um verdadeiro fardo. Não é coincidência que os computadores neuromórficos, que de uma forma ou de outra imitam o funcionamento do tecido nervoso biológico, tenham se desenvolvido tão ativamente nos últimos anos. Mas por que não recorrer diretamente a esse tecido e criarUm sistema computacional feito simplesmente de neurônios humanos?

⇡#CérebrosNumaXícara

Outro fator crucial que limita a construção de redes neurais verdadeiramente extensas em hardware semicondutor é a baixíssima eficiência energética deste. O cérebro humano, sob carga extrema, consome cerca de 20 watts, o que, aliás, é relativamente significativo — até um quinto do orçamento energético total do corpo; atividades mentais intensas são bastante dispendiosas. Supercomputadores de ponta, como o já mencionado Frontier, requerem 21 megawatts ou mais; a diferença é de pelo menos seis ordens de magnitude. Em 2024, segundo a Agência Internacional de Energia, o consumo global de energia de data centers atingiu 415 TWh, e em 2030 mais que dobrará, chegando a 945 TWh — aproximadamente 3% de toda a geração global. Mais do que o orçamento energético anual atual da Alemanha e da França combinados. Os EUA já reconhecem que a falta de eletricidade acessível para data centers é o principal obstáculo para a continuidade da liderança global do país em inteligência artificial. Em outras palavras, a busca por métodos radicalmente mais eficientes de computação “semelhante ao cérebro” (neuromórfica) está migrando do âmbito da pesquisa acadêmica abstrata para o âmbito da importância estratégica. E o que se assemelha mais a um cérebro do que um emaranhado de neurônios cultivados artificialmente?

A estrutura de um neurônio natural descreve adequadamente um neurônio cultivado artificialmente, incluindo a bainha de mielina do axônio (fonte: Freepik).

Dito e feito: em fevereiro de 2023, um grupo de pesquisadores da Universidade Johns Hopkins (JHU), liderado por Lena Smirnova, publicou um artigo na plataforma de publicação científica aberta Frontiers in Science com o título quase provocativo “Inteligência Organoide (IO): Uma Nova Fronteira em Biocomputação e Inteligência em uma Placa de Petri”. Biólogos entendem organoides como análogos funcionais criados em laboratório — bastante rudimentares, é claro, a princípio — de órgãos que surgiram naturalmente durante a evolução. O termo ressonante “IO” foi introduzido pelo grupo para denotar os resultados da atividade (nervosa? computacional? Ainda não está totalmente claro) de organoides cerebrais cultivados artificialmente a partir de células-tronco humanas que reproduzem — ou pelo menos prometem reproduzir — a atividade nervosa superior do neocórtex biológico. Estamos falando de aprendizado, formação de memória e, no futuro, funções cognitivas mais complexas realizadas in vitro, ou seja, naquela mesma placa de Petri. Aliás, a diferença fundamental entre um organoide e a cultura de células familiar aos microbiologistas, na forma de uma pequena poça no fundo da famosa placa, é a sua tridimensionalidade: os longos prolongamentos dos neurônios artificiais são mielinizados (revestidos por uma membrana isolante) e recebem oxigênio e nutrientes em todo o volume do organoide por meio de sistemas de perfusão microfluídica integrados, o que lhes permite funcionar em seu potencial máximo.Próximo às condições naturais. Matrizes tridimensionais de microeletrodos são usadas para comunicação com neurônios e células da glia cultivados artificialmente. Essas matrizes têm o potencial de se desenvolver em interfaces de rede complexas para que organoides interajam com diversos sensores e dispositivos de saída, permitindo que aprendam por meio de biofeedback — por exemplo, explorando o mundo real através de uma plataforma robótica que controlam.

O tamanho típico dos organoides cultivados pelo grupo da JHU a partir de células-tronco pluripotentes induzidas é de 500 µm; os neurônios em seu interior formam conexões sinápticas e geram padrões específicos de atividade eletroquímica em resposta a sinais de treinamento durante o desenvolvimento do organoide. Aliás, o isolamento de mielina mencionado anteriormente é essencial para um sistema de computação eletroquímica tridimensional; caso contrário, curtos-circuitos frequentemente interferem na propagação normal do sinal. Segundo os conceitos modernos, surgiu devido à introdução de informação genética de um antigo retrovírus endógeno no DNA dos oligodendrócitos — células gliais específicas — na época dos primeiros peixes cartilaginosos, os primeiros vertebrados com mandíbula, há cerca de 440 milhões de anos (aliás, a memória de trabalho e a atenção, como tipos específicos de atividade neural, desenvolveram-se, segundo os conceitos modernos, no ancestral comum dos vertebrados, artrópodes e outros clados há mais de 600 milhões de anos). É graças à bainha de mielina, que proporciona o processo de saída de um neurônio — o axônio — não apenasAo fornecer suporte não apenas físico, mas também metabólico, além do ajuste fino do sinal (os oligodendrócitos são capazes de modular os impulsos que viajam ao longo do axônio), podem surgir contatos diretos verdadeiramente longos e eficazes entre as células nervosas — até 1 m com um diâmetro axonal de 10-20 µm. No estágio atual da pesquisa, as propriedades isolantes da bainha de mielina são, obviamente, mais importantes para os organoides, mas, no futuro, oligodendrócitos artificiais com características bem definidas também precisarão ser cultivados e integrados a neurônios derivados de células-tronco.

(A) Com difusão passiva, oxigênio, nutrientes e fatores de crescimento penetram no organoide a uma profundidade de apenas cerca de 300 µm, levando à necrose nos núcleos de estruturas maiores; (B) Dispositivos microfluídicos fornecem perfusão controlada em todo o volume de organoides maiores (fonte: Universidade Johns Hopkins)

⇡#Então, três ou dois?

De uma perspectiva de bioengenharia, criar organoides a partir de tecido neural é uma tarefa muito trabalhosa. Primeiro, é necessário construir um arcabouço em microescala usando materiais biocompatíveis (arcabouço 3D); em seguida, dentro da estrutura contornada preparada, o tecido neural com o nível de conectividade necessário é cultivado a partir de neurônios e células gliais produzidos artificialmente. Os cientistas estão convencidos de que as interações predominantemente espaciais, em vez de planares, dos neurônios são determinadas por sua composição genética e, portanto, a transição de duas para três dimensões — especificamente, usando tecido neural, embora artificialmente produzido a partir de células-tronco — é a chave para uma computação neuromórfica verdadeiramente eficiente. No entanto, entrar na terceira dimensão é uma tarefa desafiadora não apenas para um computador semicondutor: a complexidade de trabalhar com tecido biológico aumenta exponencialmente. Os próprios pesquisadores da JHU destacam a importância dos sistemas de perfusão microfluídica para seus organoides: interromper o delicado equilíbrio entre o fornecimento de oxigênio, nutrientes e fatores de crescimento, por um lado, e a remoção de resíduos celulares, por outro, aumenta drasticamente o risco de necrose do tecido neural artificial. Troca de sinais com células nervosas em todo o volume do organoide.Além disso, a criação das matrizes de microeletrodos necessárias é um desafio de engenharia à parte. Uma parcela significativa do esforço dos desenvolvedores de IA, portanto, não se concentra em desenvolver métodos para treinar um cérebro artificial (digamos, no nível de uma barata — embora seus neurônios sejam semelhantes aos humanos, o número em um único organoide não ultrapassa os típicos 50.000 desse inseto) em um recipiente de vidro, mas sim em manter o objeto de sua pesquisa em condições de uso.

Não é de surpreender, portanto, que a abordagem planar para IA não seja considerada um beco sem saída atualmente. Embora o potencial para crescimento criativo em uma cultura bidimensional de tecido neural seja obviamente muito mais limitado do que no caso de um organoide tridimensional, tecnicamente, é muito mais fácil garantir a viabilidade da primeira do que do segundo. Desde 2019, a startup Cortical Labs vem desenvolvendo neurochips biológicos bidimensionais. Tudo começou com um conceito de “cérebro em uma placa de Petri” chamado DishBrain, que ficou famoso por dominar o clássico jogo de computador Pong em apenas cinco minutos — usando aprendizado por reforço e sem causar dor ao tecido neural artificial. Os pesquisadores se basearam no princípio empírico da energia livre — uma afirmação da regularidade observada em experimentos neurofisiológicos, segundo a qual um sistema complexo busca um estado de mínima imprevisibilidade, ou seja, a ordenação das informações que acumula. Assim, quando o DishBrain, que controlava a raquete virtual, errava o alvo, os pesquisadores enviavam “ruído branco” aos seus estímulos; quando ele acertava a bola na tela, eles o “recompensavam”.Um sinal periódico e harmoniosamente organizado. E isso se mostrou suficiente para uma compreensão altamente eficaz da essência deste jogo essencialmente simples. Simples, porém, para nós, portadores de inteligência biológica: quando o Google DeepMind treinou seu então avançado modelo de IA com o mesmo jogo em 2017, atingiu um nível respeitável (aproximadamente 85% de taxa de vitória) em apenas algumas horas.

Diagrama da configuração experimental que ensinou o DishBrain a jogar Pong: a seção inferior contém eletrodos para entrada sensorial, enquanto a seção superior controla a raquete virtual (fonte: Cortical Labs).

Em 2025, no MWC em Barcelona, ​​a Cortical Labs apresentou o computador híbrido biosemicondutor CL1 — em termos gerais, um chip de silício colocado em um biorreator no qual foi cultivada uma colônia de aproximadamente 800.000 neurônios humanos (também derivados de células-tronco). Esses neurônios interagem com os circuitos lógicos do próprio chip — uma matriz de microeletrodos com 59 pontos de contato — por meio de uma grade plana de contatos. O uso do termo “aproximadamente” se deve ao fato de que os próprios pesquisadores não sabem, em princípio, quantas células nervosas, ou como elas estão conectadas, uma determinada instância do CL1 contém em um dado momento. Uma interface bidirecional fechada envia estímulos de controle — impulsos elétricos — aos neurônios e recebe suas respostas, implementando assim um circuito de feedback para aprendizado por reforço. O sistema operacional proprietário de inteligência biológica (biOS), também desenvolvido pela Cortical Labs, simula o ambiente digital com o qual os neurônios interagem. Os usuários do CL1, portanto, têm a capacidade de “programar” a resposta das células nervosas biológicas a estímulos específicos, modificando esse ambiente. Essa abordagem permite emular não apenas um jogo de Pong, mas também, por exemplo, os efeitos de diversos fatores adversos no tecido neural — abrindo vastas possibilidades para o estudo dos efeitos de drogas no cérebro vivo.Por exemplo, uma unidade autônoma de suporte à vida cria condições ideais para os neurônios dentro do CL1, permitindo que permaneçam vivos e funcionais por até seis meses, e potencialmente por mais tempo.

Também em 2025, Tianyi Liu e seus colegas da Universidade de Bristol publicaram um preprint descrevendo um sistema com apenas três organoides neurais capazes de associar símbolos em Braille a letras do alfabeto inglês com 83% de precisão. Mesmo um único organoide apresentou um desempenho notável, com 61% de acertos. Os principais sinais táteis do sistema foram gerados por um sensor neuromórfico especializado, o Evetac, e os estímulos foram transmitidos ao tecido neural por meio de uma matriz de microeletrodos de baixa densidade — muito semelhante à utilizada pela Cortical Labs. Neste experimento, o aspecto fundamental é a operação colaborativa de organelas fisicamente separadas: é evidente que a solução de problemas complexos exigirá dezenas e centenas de milhões de neurônios operando em uma única rede neural, mas, como já discutimos, formar uma organela tão grande e coesa representa um desafio significativo de engenharia. Uma configuração multi-organelar, no entanto, é um caminho mais realista para aumentar o desempenho da computação OI.

“Eles estão definhando, meus queridos!” (Fonte: Cortical Labs)

⇡#Metas e Objetivos

O anúncio do biocomputador CL1, após uma análise mais detalhada, não soa particularmente brilhante. Dá a impressão de que os próprios criadores desse sistema não compreendem totalmente quais problemas práticos, insolúveis (ou ineficazmente solucionáveis) por outros meios disponíveis, ele — em seu estado atual, bastante modesto — poderia resolver agora. E é difícil culpá-los: apesar de todos os seus méritos, o tecido nervoso é a própria essência de bilhões de anos de evolução biológica. Ele surgiu e evoluiu não a partir de considerações abstratas de otimização — como a já mencionada arquitetura de von Neumann — mas em resposta a condições muito específicas nas quais inúmeras gerações de organismos vivos viveram e lutaram pela existência. Considere, por exemplo, uma característica tão importante do cérebro biológico quanto a memória de longo prazo: os modelos avançados de IA em nuvem não podem ostentar uma janela de contexto comparável — e não poderão por um bom tempo: cadeias de tokens autorregressivas excessivamente longas são muito custosas. Entretanto, nos seres vivos, a memória de longo prazo “cresceu” naturalmente há muito tempo como uma necessidade evolutiva — graças ao senso de medo. Grosso modo, os organismos cujos sistemas nervosos inicialmente primitivos desenvolveram associações estáveis ​​de certos objetos (predadores, plantas venenosas) ou condições (altas temperaturas, concentrações crescentes de substâncias nocivas) com o perigo produziram consistentemente mais descendentes viáveis. Em particular, criaturas com um cérebro desenvolvido produzem o neurotransmissor norepinefrina em situações estressantes;Estimula um grupo específico de neurônios inibitórios na amígdala, impedindo assim o apagamento de memórias traumáticas. Acontece que a comunicação com neurônios vivos exclusivamente por meios elétricos, sem o uso de neurotransmissores químicos, não ativa os mecanismos naturalmente desenvolvidos nessas células, que seriam não apenas úteis, mas vitais para redes neurais artificiais baseadas nelas.

Isso significa que precisamos ou reproduzir o cérebro vivo inteiro, com sua química interna completa, em um ambiente de laboratório, ou abandonar os neurônios naturais excessivamente complexos. E, para isso, precisamos desenvolver, mesmo que utilizando os mesmos métodos biológicos, algo semelhante a eles, focado na troca exclusiva de sinais elétricos, sem qualquer neuroquímica — mas ainda em três dimensões, com a maior densidade de conexões possível (os neurônios no cérebro humano podem ter até 200.000 contatos sinápticos, que, na ausência de neurotransmissores, teriam que ser emulados não por números de 24 bits, mas por algo ainda mais sofisticado) e com a máxima eficiência possível. Contudo, a inegável complexidade desta tarefa torna-se menos assustadora quando se calcula cuidadosamente o benefício esperado de sua solução bem-sucedida. Na estrutura tridimensional de neurônios artificiais, os atrasos nos caminhos de comunicação entre nós individuais selecionados aleatoriamente da rede neural são muito menores do que em uma estrutura bidimensional — o que permite tanto uma redução no tempo médio de trânsito de um único pulso quanto a formação de estruturas de processamento de cadeia de sinal muito mais complexas (em comparação com redes neurais densas multicamadas).

Será que a superfície de um processador de computador desktop típico algum dia se parecerá com isso (sob um microscópio)? Improvável, mas é totalmente possível que o acesso em nuvem a essas biomáquinas, hospedadas em data centers especializados, esteja disponível dentro de alguns anos (fonte: Frontiers Media).

O uso de neurônios verdadeiramente biológicos — derivados artificialmente de células-tronco, mas ainda vivos — é repleto do sério problema de sua potencial mortalidade. Aliás, os seres vivos não estão necessariamente destinados a morrer: as bactérias, ao se dividirem durante a mitose, essencialmente se autorreproduzem para sempre, inalteradas — exceto por danos cromossômicos ocasionais. Mas com organismos multicelulares, as coisas são diferentes, e suas células individuais têm um ciclo de vida muito específico. Ao contrário da expressão comum “células nervosas não se regeneram”, a neurogênese no cérebro, incluindo o de animais superiores, ocorre — ou seja, algumas células-tronco se tornam insensíveis já na embriogênese, de modo que, quando necessário, quando os neurônios mais antigos falham, novos podem substituí-los. Deve-se compreender, contudo, que as funções superiores do cérebro — em particular, a memória — são realizadas através da ativação de certos contatos específicos de células neuronais na rede geral, ou seja, são formadas pela atividade extremamente dinâmica (plástica) das sinapses, e não pela preservação de algum tipo de bit ou byte dentro dos próprios neurônios. Portanto, mesmo que neurônios artificiais (mas vivos) falhem rapidamente em um biocomputador — lembre-se, por exemplo, do CL1Seu período de “garantia” de operação é de até seis meses. Com uma rede sináptica bem organizada, será possível substituir células nervosas mortas por novas, introduzidas externamente, conforme necessário, sem comprometer a função de “pensamento” desse sistema computacional. Mas, novamente, o primeiro passo seria desenvolver uma rede de comunicação tão flexível e estável. Como isso pode ser alcançado usando apenas uma base elétrica, sem as proteínas responsáveis ​​por estabelecer conexões sinápticas em organismos vivos, ainda não está claro.

Hoje, especialistas no campo emergente da biocomputação falam, com otimismo, em “décadas” antes do advento de computadores neurais produzidos em massa com inteligência artificial (IA) que sejam realmente capazes de resolver problemas aplicados de forma mais barata e/ou rápida do que os atuais modelos de IA totalmente virtuais emulados na memória de servidores de von Neumann. A inteligência organoide, mesmo levando em conta todas as dificuldades objetivas (apenas as técnicas; nem sequer começaremos a discutir os futuros problemas morais e legais da exploração humana de uma inteligência artificial biológica plenamente desenvolvida), é extremamente atraente devido às suas capacidades inatas, as chamadas, de auto-organização flexível e atividade dinâmica. Afinal, já temos uma ideia do que um cérebro biológico bem organizado, que ocorre naturalmente, é capaz de fazer — basta olharmos ao redor e apreciarmos os frutos do seu trabalho. Certamente, uma imitação habilidosa feita pelo homem, se não superar o original, terá todas as chances de se igualar a ele.

“Imite o semelhante com o semelhante”, parecem nos dizer os desenvolvedores de organoides: embora cérebros cultivados artificialmente ainda não sejam capazes de computação, testar novos medicamentos e terapias neles já é possível — assim como com organoides de outros órgãos (fonte: TempoBioscience).

Integrar redes neurais vivas com plataformas de computação mais tradicionais (possivelmente, não apenas semicondutoras, mas também fotônicas e quânticas) permitirá, em teoria, a criação de sistemas de circuito fechado que combinam a adaptabilidade do tecido biológico com a escalabilidade e a interpretabilidade da IA ​​convencional. O objetivo a longo prazo dos pesquisadores que trabalham com IA é criar plataformas biohíbridas capazes de aprender, formar memórias verdadeiramente de longo prazo e virtualmente inesgotáveis ​​e resolver com eficácia problemas específicos da atividade nervosa superior que consomem recursos excessivos nos supercomputadores atuais. Aqui, é claro, a questão do potencial surgimento da consciência em tais sistemas e o surgimento da notória IAG (Inteligência Artificial Geral) são particularmente relevantes — mas, em todo caso, ainda falta muito, muito tempo para que essa questão tenha uma chance real de se concretizar na prática.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *