Modelo de IA de última geração roda em um pequeno computador Raspberry Pi Zero – pouco prático, mas funciona

O entusiasta Binh Pham criou um dispositivo USB baseado em um computador de placa única Raspberry Pi Zero, que executa localmente um grande modelo de linguagem de inteligência artificial que gera textos literários.

Fonte da imagem: youtube.com/@build_with_binh

O autor desenvolveu a parte de software do projeto usando a biblioteca llama.cpp e o utilitário llamafile, projetados para gerar grandes modelos de linguagem de IA. Isso provou ser uma tarefa desafiadora, já que o Raspberry Pi Zero tem apenas 512 MB de RAM e um processador ARMv6 desatualizado, o que impediu que o projeto fosse compilado conforme projetado originalmente. Para contornar essas limitações, o entusiasta teve que converter o conjunto de instruções otimizado para ARMv8 para llama.cpp e remover todas as notações e otimizações destinadas ao hardware moderno.

Binh Pham colocou o computador de placa única Raspberry Pi Zero e uma placa de expansão com uma porta USB para conexão a computadores modernos em um gabinete impresso em 3D. Devido aos recursos computacionais limitados, tivemos que limitar o contexto a 64 tokens e usar modelos contendo entre 15 milhões e 136 milhões de parâmetros. O menor, Tiny15M, apresentou a maior velocidade entre todos os modelos testados: 223 ms por token. Para Lamini-T5-Flan-77M esse número foi de 2,5 s por token, e para SmolLM2-136M – 2,2 s por token.

Com tamanha velocidade de operação, o dispositivo dificilmente pode ser chamado de prático, mas o autor do projeto decidiu não parar por aí. Ele sentiu que controlar a IA por meio da interface de linha de comando não era conveniente o suficiente e sugeriu uma maneira mais conveniente. Para enviar uma solicitação, o usuário precisa criar um arquivo de texto vazio no local especificado, cujo nome serve como uma solicitação ao modelo. Quando um arquivo é encontrado, o sistema envia uma solicitação à IA e escreve sua resposta no conteúdo do mesmo arquivo.

Com seu projeto, Binh Pham decidiu mostrar como seria a interação com modelos locais de IA no futuro.

avalanche

Postagens recentes

Assim como em Tatooine: a usina Uravu, na Índia, extrairá água potável do ar utilizando o calor residual de centros de dados.

A startup indiana Uravu propôs um sistema no qual o sal é um ingrediente fundamental…

21 minutos atrás

Imagens vazadas das filmagens de Elden Ring surpreenderam os fãs com sua autenticidade.

A A24 finalmente começou a filmar a tão aguardada adaptação do aclamado RPG de ação…

21 minutos atrás

A Chuwi apresentou um mini PC potente, o AuBox X, equipado com um processador Intel Core Ultra de verdade.

A Chuwi apresentou o mini PC compacto AuBox X, projetado para computação diária, trabalho multimídia…

38 minutos atrás

“Há boas notícias”: a Ubisoft respondeu ao novo vazamento sobre a resincronização de Assassin’s Creed Black Flag.

Os desenvolvedores geralmente não comentam vazamentos de seus próprios jogos, mas o suposto remake do…

1 hora atrás

A TSMC anunciou sua prontidão para dominar as tecnologias de processo A12 e A13 em 2029.

Os fabricantes de chips sob encomenda estão revelando seus planos futuros não apenas em conferências…

1 hora atrás

O assistente de IA Gemini do Google agora faz anotações, resumos e transcrições além das reuniões do Google Meet.

O assistente de IA Gemini do Google agora consegue fazer anotações não apenas em reuniões…

2 horas atrás