Ensinar é leve: MIT criou um processador de fótons para IA com alta velocidade e baixo consumo

Uma equipe de cientistas do MIT e seus colegas internacionais criaram o que afirmam ser o primeiro processador totalmente fotônico para aplicações de inteligência artificial. O processador fotônico não tem desempenho pior do que seus análogos em transistores de silício, mas realiza cálculos com muito menos consumo de energia. Isto é especialmente importante para a criação de periféricos “pensantes” – lidars, câmeras, dispositivos de comunicação e outros, para os quais um caminho direto está agora aberto.

Fonte da imagem: Sampson Wilcox, Laboratório de Pesquisa de Eletrônica

O principal desafio na criação de um chip totalmente fotônico para IA é que a luz é boa na computação linear, enquanto a computação não linear requer um consumo significativo de energia. Para realizar este último, são necessários blocos especiais, porque os fótons reagem entre si apenas em condições especiais. Portanto, operações anteriormente lineares, por exemplo, multiplicação de matrizes, eram realizadas por uma unidade fotônica, e para cálculos não lineares, o sinal de luz era convertido na forma de um pulso elétrico e depois processado à moda antiga – por um processador convencional feito de transistores de silício.

Cientistas do MIT estabeleceram o objetivo de criar um único processador que tivesse um sinal luminoso na entrada e um sinal luminoso na saída sem o uso de coprocessadores de silício. Segundo eles, utilizando trabalhos anteriores e descobertas de colegas estrangeiros, alcançaram o objetivo.

O dispositivo óptico desenvolvido pelos pesquisadores foi capaz de realizar cálculos importantes para uma tarefa de classificação usando aprendizado de máquina em menos de meio nanossegundo, ao mesmo tempo em que alcançou uma precisão de mais de 92% – desempenho comparável ao de equipamentos tradicionais. O chip criado é composto por módulos interligados que formam uma rede neural óptica e é fabricado por meio de processos litográficos comerciais, o que pode garantir escalabilidade da tecnologia e sua integração à eletrônica moderna.

Os cientistas contornaram o problema com cálculos fotônicos não lineares de uma forma interessante. Eles desenvolveram a unidade NOFU, uma unidade funcional óptica não linear integrada ao processador óptico, que possibilitou a utilização de circuitos eletrônicos junto com circuitos ópticos, mas sem passar para operações externas. Aparentemente, o bloco NOFU foi escolhido como um compromisso entre circuitos não lineares puramente fotônicos e circuitos eletrônicos clássicos.

Primeiro, o sistema codifica os parâmetros da rede neural profunda em pulsos de luz. Uma matriz de divisores de feixe programáveis ​​executa então a multiplicação matricial dos dados de entrada. Os dados são então transferidos para a camada programável NOFU, onde funções não lineares são implementadas através da transmissão de sinais de luz para fotodiodos. Este último, por sua vez, traduz o sinal luminoso em impulsos elétricos. Como este estágio não requer amplificação externa, as unidades NOFU consomem muito pouca energia.

«Permanecemos na região óptica o tempo todo, até o final, quando queremos ler a resposta. Isso nos permite alcançar latência ultrabaixa”, afirmam os autores do estudo.

avalanche

Postagens recentes

Deep Fission alimentará o data center Endeavour a partir de pequenos reatores nucleares subterrâneos a uma profundidade de mais de 1,5 km

A Deep Fission, que desenvolve pequenos reatores modulares (SMRs), assinou um acordo com o desenvolvedor…

3 minutos atrás

Gigabyte lançará 27 versões de GeForce RTX 5090, RTX 5080, RTX 5070 Ti e RTX 5070

A Gigabyte apresentou um total de 27 variantes de placas de vídeo GeForce RTX 5090,…

53 minutos atrás

Anunciantes meta isentos que ganham mais dinheiro com a moderação padrão

Meta✴ isentou alguns dos principais anunciantes em suas plataformas das práticas padrão de moderação de…

2 horas atrás

A Gigabyte apresentou mais de 30 placas-mãe baseadas em Intel B860 e AMD B850 para os processadores mais recentes

A Gigabyte apresentou na CES 2025 uma nova geração de placas-mãe baseadas nos chipsets Intel…

2 horas atrás

A Microsoft trouxe de volta o antigo gerador de imagens AI Bing Image Creator porque o novo funcionou pior

A Microsoft decidiu reverter uma atualização do gerador de imagens AI Bing Image Creator. Isso…

2 horas atrás