Entusiastas rodaram o moderno modelo de IA Llama em um PC antigo com Pentium II e Windows 98

Especialistas do EXO Labs conseguiram executar um Llama de modelo de linguagem grande (LLM) bastante poderoso em um computador de 26 anos rodando o sistema operacional Windows 98. Os pesquisadores mostraram claramente como um PC antigo equipado com um processador Intel Pentium II com um processador Intel Pentium II funciona. frequência de operação de 350 MHz e 128 MB de RAM, após a qual a rede neural é iniciada e interage posteriormente com ela.

Fonte da imagem: GitHub

Para executar o LLM, os especialistas do EXO Labs usaram sua própria interface de saída para o algoritmo Llama98.c, que foi criado com base no mecanismo Llama2.c, escrito na linguagem de programação C pelo ex-funcionário da OpenAI e da Tesla, Andrej Karpathy. Depois de carregar o algoritmo, ele foi solicitado a criar uma história sobre Sleepy Joe. Surpreendentemente, o modelo de IA realmente funciona mesmo em um PC tão antigo, e a história é escrita em boa velocidade.

A misteriosa organização EXO Labs, formada por pesquisadores e engenheiros da Universidade de Oxford, emergiu das sombras em setembro deste ano. Ela supostamente defende a abertura e acessibilidade de tecnologias baseadas em inteligência artificial. Os representantes da organização acreditam que as tecnologias avançadas de IA não deveriam estar nas mãos de um punhado de empresas, como é o caso agora. No futuro, eles esperam “construir uma infraestrutura aberta para treinar modelos avançados de IA, permitindo que qualquer pessoa os execute em qualquer lugar”. Demonstrar a capacidade de executar o LLM em um PC antigo, na opinião deles, prova que os algoritmos de IA podem ser executados em praticamente qualquer dispositivo.

Em seu blog, os entusiastas disseram que para realizar a tarefa, adquiriram um PC antigo com Windows 98 no eBay. Depois, ao conectar o aparelho à rede por meio de um conector Ethernet, conseguiram transferir os dados necessários para a memória do aparelho via. FTP. Provavelmente, compilar código moderno para Windows 98 acabou sendo uma tarefa mais difícil, que foi resolvida pelo trabalho de Andrei Karpaty publicado no GitHub. No final das contas, conseguimos atingir uma velocidade de geração de texto de 35,9 tokens por segundo usando um LLM de 260K com a arquitetura Llama, o que é muito bom considerando as modestas capacidades de computação do dispositivo.

avalanche

Postagens recentes

A espaçonave Orion, que transportava a tripulação da missão Artemis II, deixou a órbita da Terra na segunda-feira para um encontro com a Lua.

Pela primeira vez em mais de 50 anos, seres humanos deixaram a órbita da Terra…

19 minutos atrás

A OpenAI decidiu repentinamente gastar mais de cem milhões de dólares para comprar um programa de entrevistas popular.

Ao que tudo indicava, o abandono de áreas de desenvolvimento secundárias, incluindo o fim do…

3 horas atrás

A IBM está criando laços entre mainframes e arquiteturas Arm, mas parece não entender completamente o porquê.

A IBM anunciou uma colaboração estratégica com a Arm para "desenvolver um novo hardware de…

8 horas atrás

O Caminho Óctuplo para a IAG: Do Falso Nirvana ao Verdadeiro Nirvana / Inteligência Artificial

Qualquer pessoa não budista que tenha ao menos vagamente ouvido falar desse antigo ensinamento sabe…

10 horas atrás

A Microsoft AI revelou três modelos de IA próprios para geração de texto, voz e imagens.

A divisão de pesquisa em IA da Microsoft revelou três novos modelos de inteligência artificial…

11 horas atrás