Despeje um terabit em um milímetro quadrado

As células NAND multicamadas e multiníveis são verdadeiramente uma obra-prima da tecnologia de semicondutores. No entanto, com a sua maior miniaturização em relação ao nível alcançado até à data, as coisas não são nada simples: por razões físicas fundamentais, até mesmo reduzir o tamanho dos nanocapacitores, que servem como elementos básicos para o armazenamento de dados, é uma tarefa incrivelmente difícil. Aumentar o número de bits de dados armazenados em uma célula – passando dos chips de memória mais comuns de três e quatro bits (TLC e QLC) para cinco bits (PLC) e mais – também é uma opção estrategicamente sem saída: a probabilidade O número de erros durante as operações com essas células aumenta visivelmente e sua durabilidade (o número de ciclos de reescrita após os quais o nanocapacitor simplesmente falha) é drasticamente reduzida.

Basta dizer que os clientes de SSD para servidores de IA em nuvem – e é este segmento relativamente restrito do mercado global de drives que recentemente mostrou um crescimento notável, atingindo dezenas de por cento trimestre a trimestre – preferem, de acordo com especialistas da TrendForce, não cinco , não quatro, mas apenas dispositivos de três níveis (TLC) com capacidade de 4 a 8 TB, pois são os que hoje demonstram a proporção ideal dos três parâmetros mais importantes para os negócios. Ou seja – alta capacidade; desempenho suficiente para tarefas de IA sob alta carga; e ao mesmo tempo durabilidade, o que certamente permite pagar pela sua instalação em sistemas comerciais. Em outras palavras, o desenvolvimento de tecnologias NAND do ponto de vista dos hiperescaladores, que fornecem acesso à nuvem para modelos de IA de nível empresarial, atingiu essencialmente o “teto de vidro” da justificativa para investimentos – é hora de procurar algo novo para substituir eles. Algo com o mesmo potencial de desenvolvimento significativo que a mesma memória semicondutora tinha há uma dúzia ou dois anos.

Variedades de implementações físicas de memória de computador (SRAM – operacional, DRAM e depois – permanente) nas coordenadas “disponibilidade em GB/dólar”. — “atrasos de acesso (em escala logarítmica)”, bem como a sua aplicabilidade a diferentes tipos de armazenamento de dados: arquivo, acesso diferido, online, sempre ativo (fonte: IMEC)

Espera-se que até 2029, os chips 3D NAND sejam capazes de fornecer densidades de gravação de dados de até 70 Gbit/mm². Isto por si só é um valor muito impressionante – mesmo se deixarmos de lado a questão dos atrasos que os sistemas informáticos do futuro próximo enfrentarão ao aceder a tais estruturas semicondutoras ricas em informação. Mas você terá que contatá-los – principalmente durante o treinamento de novos; modelos de inteligência artificial muito mais sofisticados do que os disponíveis hoje. A dinâmica de crescimento de seus apetites é impressionante: para treinar GPT-3, por exemplo, foi utilizado um conjunto de dados de 570 GB (é indicado o volume de texto compactado – apenas texto, sem imagens e vídeos, pois não se trata de um modelo multimodal – e mesmo depois de filtrar o array original, muito maior), que gerou 400 bilhões de tokens. De acordo com estimativas de especialistas, mais de 280 TB de dados filtrados, convertidos em mais de 70 trilhões de tokens, já foram usados ​​para treinar o próximo GPT-5 (presumivelmente será apresentado ao público em novembro-dezembro de 2024, após as eleições americanas). ). O aumento no volume de informações necessárias para treinar um modelo em quase três ordens decimais em apenas alguns anos é impressionante, e se essas taxas forem mantidas pelo menos parcialmente, e a atual IA generativa não for substituída por algo com menos recursos – maneira ávida de organizar o aprendizado de máquina para Para resolver os mesmos problemas, a indústria global de TI precisará de muitos dispositivos de armazenamento de grande capacidade. Talvez uma parte considerável deles venha a ser de base líquida num tempo relativamente curto – e dentro desta direcção que apenas começou a desenvolver-se, eles já conseguiramVárias tecnologias concorrentes tomam forma.

⇡#O tamanho nanométrico é importante

Em 2022, pesquisadores do IMEC (Centro Interuniversitário de Microeletrônica) belga propuseram duas abordagens para organizar a memória permanente líquida: coloidal e eletrolítica, cada uma das quais abre no futuro a possibilidade de criar drives com densidade de gravação de dados de até 1 Tbit/ mm². Considerando o quanto as taxas de crescimento de densidade dos chips NAND cada vez mais “de vários andares” que surgiram nos últimos anos diminuíram, o desenvolvimento do armazenamento baseado em líquido (LBS) parece mais do que atraente – mesmo tendo em conta os investimentos consideráveis ​​necessários para isso. Segundo os autores desta ideia, a memória líquida pode começar a aparecer na forma de armazenamento serial de dados a partir do início da década de 2030, e nessa altura, em termos de velocidade de acesso, poderá ocupar uma posição intermédia entre o HDD e a fita. cassetes. 3D NAND em 5-6 anos continuará insuperável em termos de velocidade de resposta, no entanto, em tarefas como a criação de cópias de backup com a capacidade de pesquisar e recuperar dados rapidamente, bem como armazenamento – não arquivamento, mas, como dizem , disponível; nearline – coleções multimídia e outros arquivos volumosos O LBS tem todas as chances de substituir os discos rígidos que são familiares hoje. Principalmente considerando o fato de que também parecem estar atingindo um patamar no crescimento da densidade das informações armazenadas nas placas magnéticas.

Três abordagens para organizar a memória do computador: a) semicondutor – combinando dispositivos de acesso com células de armazenamento, b) magnético – meio de armazenamento não alocado com um dispositivo de acesso móvel, c) líquido – com meio de armazenamento volumétrico e dispositivos de acesso estacionários (fonte: IMEC)

Vamos lembrar por que a memória semicondutora, seja DRAM ou NAND, é extremamente difícil de miniaturizar além de uma certa escala. Cada célula de tal armazenamento de dados, de nível único ou múltiplo, consiste em pelo menos um elemento de armazenamento real – armazenando uma carga elétrica – bem como um dispositivo de acesso a este elemento; uma chave condicional, que é acionada por um diodo ou transistor. Através de um switch, o elemento de armazenamento é conectado a barramentos elétricos, por meio dos quais são recebidos comandos de leitura/gravação/reset de células. Embora o elemento de armazenamento possa teoricamente ser miniaturizado até à escala molecular, especialmente se passarmos de condensadores para ímanes monomoleculares, os interruptores e barramentos de dados num dispositivo semicondutor continuarão inevitavelmente a permanecer objetos relativamente macroscópicos – cujo tamanho característico mínimo é determinado pelas características do processo tecnológico utilizado na fabricação de um determinado chip.

No caso dos HDDs e especialmente dos cassetes de fita, a organização do armazenamento de dados é fundamentalmente diferente: existe um dispositivo de acesso ou é representado por um número limitado de cabeçotes de leitura/gravação, cada um servindo sua própria área do meio. – um disco magnético ou fita, respectivamente. A mídia geralmente representa uma mídia não padronizada – embora recentemente, com o desenvolvimento das tecnologias HAMR/MAMR, e no futuro BPM, a conversa esteja começando a ser sobre direcionar precisamente as cabeças quase em domínios magnéticos individuais na superfície dos discos. A utilização de um meio não particionado reduz o custo das tecnologias de armazenamento de dados magnéticos em comparação com as tecnologias de semicondutores – mas à custa de um aumento óbvio no tempo de acesso a cada bit individual, bem como na quantidade de energia necessária para cada ato de escrita/leitura (pelo menos devido à necessidade de mover fisicamente as cabeças sobre o meio de armazenamento). Mas reduzir as dimensões geométricas desses bits é muito mais eficaz do que no caso do mesmo NAND.

Diagrama esquemático da organização das células de memória coloidal; veja o texto para explicação (fonte: IMEC)

⇡#Dê-me o colóide!

A abordagem de armazenamento de dados proposta pelos pesquisadores do IMEC é, em certo sentido, intermediária entre o semicondutor clássico e o magnético. Há também um meio de armazenamento volumétrico (como no 3D NAND, por exemplo) – mas os dispositivos de acesso a dados estão localizados em uma matriz plana e densa, cada elemento controlando informações em uma coluna de matéria – o “poço” – diretamente abaixo dele (ou acima dele; não há diferença fundamental aqui, porque em poços tão estreitos os fenômenos capilares são mais significativos do que os efeitos da gravidade). Assim, em comparação com a memória semicondutora, o número de comutadores por bit de dados armazenados é significativamente reduzido; o que significa que as possibilidades de miniaturização de tal dispositivo de armazenamento como um todo estão se tornando mais amplas. Considerando bem os “dados” não de forma abstrata, mas literalmente, não é difícil repetir o caminho mental dos engenheiros do IMEC até o conceito de memória coloidal – quando recessos verticais na base física da unidade são preenchidos com um sistema coloidal, ou seja, aquele em que estão contidas de forma heterogênea, sem misturar ou interconverter, pelo menos duas fases em diferentes estados de agregação. Na maioria das vezes é um meio líquido (neste caso, água destilada) e um enchimento sólido. Este último é representado por nanopartículas de dois tipos, alguns dos quais codificam uns, outros – zeros, e suas dimensões físicas são tais que cabem livremente no tronco dos dados, sem esforço, mas estritamente um por um.

Assim, uma sequência de símbolos escritos em uma célula base, uma palavra de máquina convencional, será simplesmente uma sequência de partículas com propriedades diferentes – o principal é selecioná-los de modo a distinguir com segurança entre “zeros” e “uns” ao ler informações e manipulá-las livremente ao escrever. Para essas operações, o IMEC propõe a utilização de estruturas CMOS semicondutoras convencionais, o que significa que os tipos de partículas – portadoras de dados na memória coloidal – devem diferir entre si, por exemplo, na magnitude da carga elétrica. Não há grandes problemas com a leitura: “puxando” nanopartículas carregadas uma de cada vez de um determinado poço capilar e fixando-as na saída de seu barril, “zero” agora retornou ao reservatório comum, ou “um” é um assunto simples. Outra questão é registrar dados: capturar uma partícula com a quantidade necessária de carga em um reservatório e colocá-la em um poço estritamente definido é definitivamente uma tarefa de engenharia com um asterisco.

Os pontos brilhantes são nanopartículas fluorescentes de poliestireno que entram (a diferença de brilho corresponde à profundidade de imersão) nos poços quadrados do protótipo de armazenamento coloidal durante o processo de gravação (fonte: IMEC)

Usar partículas eletricamente carregadas neste caso seria imprudente: em um reservatório comum não será possível evitar a atração/repulsão parasitária entre elas, o que complicará o caminho dos “bits” coloidais para a colocação seletiva nos capilares desejados. Os pesquisadores confiaram no fenômeno da dieletroforese dependente de frequência: graças a ela, é possível separar partículas em um meio líquido sob a influência de um campo elétrico externo – eles próprios neutros, mas reagindo de maneira diferente a diferentes frequências eletromagnéticas. Aqui, é claro, ainda há muito trabalho não só prático, mas também teórico: por exemplo, será necessário desenvolver um protocolo de gravação eficaz que seja suficientemente rápido e que garanta contra um número inaceitável de erros. O princípio geral já está claro: digamos, quando um campo externo com frequência condicional “0” é aplicado, partículas “zero” fluirão do reservatório para todos os capilares do poço do dispositivo de armazenamento, e a tarefa do CMOS O controlador será bloquear os pescoços dos capilares nos quais o próximo. Não há necessidade de anotar “zero”. De uma forma ou de outra, o IMEC já confirmou experimentalmente a funcionalidade do dispositivo de armazenamento coloidal na escala de tamanho de mícron. Agora a única questão é encontrar fundos e alocar recursos de engenharia para escalá-lo até tamanhos nanométricos dos principais elementos de trabalho;

⇡#E o eletrólito não vai doer

Outro tipo de armazenamento de líquidos proposto por pesquisadores belgas é o eletrolítico. A eletrólise, lembramos, é o processo de formação de produtos químicos nos eletrodos (que estão em contato com um meio com condutividade iônica) quando uma corrente elétrica flui através de um circuito fechado formado por tal contato. Neste caso, o papel do meio é desempenhado por uma solução – em água ou outro líquido adequado – de dois íons metálicos, a prontidão de cada um deles para se depositar no eletrodo depende diretamente da magnitude do potencial aplicado ao circuito . O próprio drive, também, como no caso da memória coloidal, é um reservatório de líquido com um conjunto de capilares, mas somente aqui, no fundo de cada poço, há um eletrodo de controle individual (controlado, novamente, por um circuito CMOS) , e no lado oposto do reservatório há um eletrodo grande comum, um para todo o conjunto.

O princípio de funcionamento da memória líquida eletrolítica: as setas mostram o processo de deposição de íons (eletrodeposição) e o processo inverso de retorno das camadas metálicas previamente acumuladas no capilar em solução (eletrodissolução) (fonte: IMEC)

O princípio de funcionamento de um dispositivo de armazenamento eletrolítico também é bastante transparente: ao aplicar um certo potencial ao eletrodo de controle em um dos capilares, o sistema força os íons de um ou outro metal da solução a serem depositados nele (ou seja, em o barril do poço correspondente). O método de codificação de dados proposto no IMEC consiste em utilizar um dos metais para registrar informações (convencionalmente, uma camada de 1 nm de espessura significará “0”, 2 nm – “1”), e o segundo para formar camadas intermediárias entre aquelas colocadas sequencialmente nos “pedaços” do poço. Os dados são lidos iniciando a eletrólise na direção oposta – calculando a mudança no potencial de cada capilar à medida que a informação previamente registrada flui (literalmente) dele. Aqui, também, muitos problemas técnicos terão que ser resolvidos – por exemplo, a interpenetração de dois metais na interface entre eles pode ser profunda o suficiente (lembre-se, estamos falando de camadas de 1-2 nm de espessura) para então levar a erros de leitura. E, no entanto, no experimento IMEC, foi possível – usando, no entanto, matrizes de capilares com diâmetros milimétricos e micrométricos por enquanto – obter deposição eletrolítica confiável e, em seguida, dissolução controlada (com fixação deste processo no nível da eletrônica de controle, ou seja, com a execução da operação de leitura) duas camadas de íons CoNi intercaladas com três camadas de íons Cu. Além disso, quanto menor a seção transversal do poço, maiores serão as velocidades de escrita e leitura.

Os investigadores belgas, plenamente conscientes da complexidade das tarefas de engenharia que os desenvolvedores de memória líquida enfrentam, falam, no entanto, sobre a possibilidade de, no início da década de 2030, uma densidade de gravação de informações em unidades deste tipo que é proibitiva pelos padrões atuais – 1 Tbit/mm², e eles estimam o custo desses armazenamentos de dados em termos de área ocupada por unidade como inferior ao dos chips 3D NAND mais avançados da época. O otimismo tecnológico se soma a essa previsão ao calcular a densidade de colocação dos elementos de armazenamento de líquidos necessária para atingir os objetivos declarados: apenas 40 nm entre estruturas adjacentes – sejam nanocapilares ou barramentos metálicos de controle. Mesmo para os actuais padrões microelectrónicos, estas são, de facto, especificações bastante suaves, e ainda mais nas realidades esperadas para 2030. Aparentemente, os métodos litográficos se tornarão os principais na produção de memória líquida, uma vez que equipamentos modernos para fabricação de semicondutores são excelentes para gravar furos de diâmetro nanométrico em posições designadas com precisão. A propósito, é o progresso no campo do 3D NAND que torna possível formar poços verticais suaves em um substrato de silício com uma relação altura-diâmetro de 200:1 e até 400:1 – praticamente a mesma que será necessário para amostras seriais de memória líquida eletrolítica e coloidal, respectivamente.

A superfície do microcircuito que serviu aos pesquisadores como confirmação do conceito de memória eletrolítica: grupos de círculos brancos são arranjos de poços com diâmetro de 80-150 nm (diferentes grupos de capilares – para avaliar a dependência da velocidade de gravação/ operações de leitura em suas dimensões) e uma profundidade de 300 nm (fonte: IMEC)

⇡#Você ligou para o T-1000?

O memorável “robô feito de metal líquido” (mais precisamente, feito de uma poliliga metálica), com o qual o personagem de Arnold Schwarzenegger lutou no segundo filme da franquia “O Exterminador do Futuro”, inevitavelmente vem à mente em conexão com o bastante recente (datas de publicação de volta ao final de 2023) desenvolvimento de cientistas da Universidade Tsinghua de Pequim – FlexRAM. Como o nome já indica, trata-se de uma RAM “flexível” – destinada principalmente a equipar dispositivos com telas flexíveis. Ao mesmo tempo, o FlexRAM também contém uma substância na fase líquida: é um metal líquido à base de gálio (GLM), cujo ponto de fusão é visivelmente inferior à temperatura ambiente, como o mercúrio, por exemplo, e que, para este razão, em condições normais permanece no estado líquido.

A superfície das gotas de metal líquido – como, de fato, das partículas de quase qualquer sólido – está sujeita a processos naturais de oxidação e redução, durante os quais os átomos do metal se combinam com o oxigênio (geralmente atmosférico: é assim que a ferrugem, a pátina, etc. . são formados) ou, consequentemente, perder contato com ele. No caso do FlexRAM, esses processos são controlados: sob a influência de um baixo potencial de controle, as superfícies das gotículas de GLM colocadas no hidrogel são oxidadas; O filme de óxido impede a passagem de corrente elétrica, aumentando assim a resistência de um determinado volume como um todo. Os desenvolvedores atribuíram esse estado a uma unidade lógica. Se o mesmo potencial for aplicado novamente ao volume, mas com sinal oposto, ocorrerá a restauração – e a condutividade dessa área do meio aumentará; É assim que um zero lógico é codificado.

Esta foto pitoresca captura o momento em que a superfície de uma gota de GLM passa de um estado oxidado para um estado reduzido (fonte: Universidade de Tsinghua)

Até agora, o desenvolvimento dos engenheiros chineses está em um estágio muito inicial: cada gota do GLM codifica um único bit de dados, e a configuração experimental opera com segurança, escrevendo e lendo informações, com apenas oito gotas por vez – um total de 1 byte. . Há, no entanto, uma circunstância extremamente importante que obriga os investigadores a prever perspectivas sólidas para a FlexRAM: esta memória, formalmente operacional em todos os aspectos, é de facto capaz de armazenar dados nela gravados durante bastante tempo. Num ambiente livre de oxigénio, as superfícies das gotículas de GLM permanecem oxidadas ou reduzidas na ausência de influências externas durante bastante tempo – os experimentadores afirmam 12 horas. A estabilidade de um sistema físico e químico tão simples também é bastante elevada: foi confirmado que pode suportar pelo menos 3,5 mil ciclos de reescrita (mudanças no estado da superfície de oxidada para reduzida e vice-versa), o que corresponde ao recurso reserva de células de chips NAND modernos (multiníveis).

Áreas promissoras de aplicação do FlexRAM – claro, depois que for possível passar da atual escala milimétrica para micro, ou melhor ainda, nanômetro – são chamadas de interfaces cérebro-máquina, inclusive implantáveis; sistemas de computação flexíveis ou mesmo inteiramente em fase líquida; robótica suave, etc. Eles até falam sobre a semelhança dos processos de oxidação/redução na superfície de gotículas de metal líquido com hiperpolarização/despolarização da membrana celular de um neurônio – implicando assim a aplicabilidade da memória líquida para a criação de computadores neuromórficos que imitam de perto os sistemas biológicos. objetos.

«Tapete Sierpinski”, formado por moléculas de DNA durante a automontagem de acordo com um algoritmo programado por pesquisadores (fonte: Wikimedia Commons)

Não devemos esquecer outra direção que recentemente atraiu pesquisadores – memória de DNA e, mais amplamente, cálculos completos de DNA com a implementação de armazenamento de dados e operações lógicas sobre eles nessas macromoléculas bem conhecidas (pelo menos por boato). A memória de DNA é boa para matrizes de informações que requerem apenas acesso retardado (armazenamento quase linear), bem como para armazenamento de arquivos de longo prazo: em condições ideais, sem se autodestruir ou exigir qualquer manutenção, ela permanece inalterada por décadas. Você nem precisa pensar muito sobre como codificar dados em DNA: essa molécula foi criada pela própria natureza especificamente para registrar (com posterior cópia) informações genéticas na forma de uma sequência específica de nucleotídeos. E a densidade de dados ali está em perfeita ordem: todo o conteúdo da Biblioteca do Congresso Americano (74 milhões de MB em 2021) caberá em um emaranhado de moléculas de DNA do tamanho de uma semente de papoula.

Dado que um meio líquido é mais adequado para o ADN, os computadores (ou instalações de armazenamento de dados separadas) criados com esta tecnologia certamente também se enquadrarão na categoria líquida. Nesta área, os investigadores também esperam muitos desafios – pegue pelo menos a velocidade extremamente baixa de escrita/leitura: por exemplo, o programa americano MIST (Molecular Information Storage) estabelece como objectivo a curto prazo garantir a leitura de 10 TB de dados de um armazenamento experimental de DNA em 24 horas, gastando no máximo 1 mil dólares. Outro sério desafio não é a maior confiabilidade no armazenamento de dados, especialmente durante a replicação: a tendência à variabilidade do código genético está embutida, pode-se dizer, no nível do hardware – é graças a ela que ocorre a evolução biológica. Em qualquer caso, a memória líquida e, mais amplamente, os sistemas de computação baseados em líquidos parecem muito promissores à luz do ritmo cada vez mais lento do progresso dos semicondutores clássicos.

⇡#Materiais relacionados

  • Pequenas cápsulas foram propostas para armazenar dados no DNA – isso reduzirá o nível de erros e protegerá contra a perda de informações.
  • O “Hamlet” de Shakespeare codificado em DNA e mostrou uma busca rápida por palavras-chave
  • Histórias de TI: DNA artificial – um candidato para substituir o silício?
avalanche

Postagens recentes

O desempenho do supercomputador Sergei Godunov dobrou para 114,67 teraflops

O grupo de empresas RSK anunciou a conclusão da modernização planejada do supercomputador Sergei Godunov…

4 horas atrás

Um McLaren P1 em tamanho real foi construído com 342.817 peças de LEGO e pode acelerar até 64 km/h

Após o lançamento de uma réplica em escala de 60 centímetros (24 polegadas) do McLaren…

4 horas atrás

OpenAI introduziu o modelo de linguagem pensante o1

A OpenAI introduziu um novo modelo de linguagem, o1, que tem a capacidade de raciocinar…

4 horas atrás

O Google DeepMind ensinou um robô a amarrar cadarços e consertar outros robôs

As crianças geralmente aprendem a amarrar os sapatos aos 5 ou 6 anos. Ao mesmo…

5 horas atrás

Um fã descobriu um código de trapaça em Doom para Sega Saturn que ninguém conhecia há 27 anos

O Doom original foi portado para um grande número de plataformas e, mesmo depois de…

5 horas atrás