Os pesquisadores criaram um análogo do modelo de IA OpenAI em 26 minutos usando o método de destilação

Pesquisadores da Stanford e da Universidade de Washington criaram um modelo de IA que supera o Openai na solução de problemas matemáticos. O modelo, chamado S1, foi treinado em um conjunto limitado de dados de 1000 perguntas por destilação. Isso tornou possível obter alta eficiência com recursos mínimos e provar que grandes empresas como OpenAI, Microsoft, Meta✴ e Google podem não precisar criar grandes centers, preenchendo -os com milhares de processadores gráficos da NVIDIA.

Fonte da imagem: Growtika/Unsplash

O método de destilação que os cientistas aplicou foi uma solução essencial no experimento. Essa abordagem permite que pequenos modelos estudem sobre as respostas fornecidas por modelos maiores de IA. Nesse caso, como escreve a Verge, a S1 melhorou rapidamente suas habilidades usando as respostas do modelo de inteligência artificial Gemini 2.0 Flash Thinking Experimental, desenvolvido pelo Google.

O modelo S1 foi criado com base no projeto QWEN2.5 do Alibaba (Cloud) Open Source. Inicialmente, os pesquisadores usaram um conjunto de dados de 59.000 perguntas, mas durante os experimentos chegaram à conclusão de que um aumento na quantidade de dados não fornece melhorias significativas e, para o treinamento final, eles usaram apenas um pequeno conjunto de 1000 questões. Ao mesmo tempo, foi utilizado apenas 16 GPU NVIDIA H100.

No S1, também foi utilizada uma técnica chamada “Escala de tempo de teste”, que permite que o modelo “reflita” antes de gerar uma resposta. Os pesquisadores também estimularam o modelo a dobrar suas conclusões adicionando um comando na forma da palavra “espera” (“espera”), que forçou a IA a continuar raciocinando e corrigindo erros em suas respostas.

Alega-se que o modelo S1 mostrou resultados impressionantes e foi capaz de superar a previsão OpenAI O1 em 27 % ao resolver problemas matemáticos. O modelo R1 recentemente sensacional da DeepSeek também usou uma abordagem semelhante para relativamente pouco dinheiro. É verdade que agora o OpenAI acusa o Deepseek de extrair informações de seus modelos, violando as condições de serviço. Vale a pena dizer que, nas condições de usar o Google Gemini, é indicado que sua API é proibida de usar para criar bots de bate -papo concorrentes.

Um aumento no número de modelos menores e mais baratos pode, de acordo com especialistas, entregar todo o setor e provar que não há necessidade de investir bilhões de dólares em treinamento de IA, criar grandes centers e comprar uma grande quantidade de GPU.

avalanche

Postagens recentes

As ações da Nvidia caíram 7% em uma semana, apesar de um relatório trimestral sólido.

Esta semana, a Nvidia não só divulgou uma receita trimestral recorde, superando as expectativas do…

4 horas atrás

As encomendas de produção de chips de 2nm da TSMC estão distribuídas pelos próximos dois anos.

A TSMC, de Taiwan, ultrapassou seus concorrentes no desenvolvimento de processos litográficos avançados, embora a…

5 horas atrás

A Huawei apresentará sistemas de supercomputação no MWC 2026 em Barcelona.

As fronteiras entre os gêneros tecnológicos estão se tornando cada vez mais tênues, portanto, a…

6 horas atrás

Análise de Yakuza Kiwami 3 e Dark Ties – O Que Você Fez?! / Jogos

Jogado no Xbox Series S Em 2009 (ou 2010, se estivermos falando do lançamento fora…

12 horas atrás

A Hyundai investirá mais de US$ 6 bilhões em data centers com inteligência artificial, robótica, hidrogênio e energia solar.

O Grupo Hyundai Motor e o governo sul-coreano assinaram um acordo para investir aproximadamente ₩9…

12 horas atrás