Os pesquisadores criaram um análogo do modelo de IA OpenAI em 26 minutos usando o método de destilação

Pesquisadores da Stanford e da Universidade de Washington criaram um modelo de IA que supera o Openai na solução de problemas matemáticos. O modelo, chamado S1, foi treinado em um conjunto limitado de dados de 1000 perguntas por destilação. Isso tornou possível obter alta eficiência com recursos mínimos e provar que grandes empresas como OpenAI, Microsoft, Meta✴ e Google podem não precisar criar grandes centers, preenchendo -os com milhares de processadores gráficos da NVIDIA.

Fonte da imagem: Growtika/Unsplash

O método de destilação que os cientistas aplicou foi uma solução essencial no experimento. Essa abordagem permite que pequenos modelos estudem sobre as respostas fornecidas por modelos maiores de IA. Nesse caso, como escreve a Verge, a S1 melhorou rapidamente suas habilidades usando as respostas do modelo de inteligência artificial Gemini 2.0 Flash Thinking Experimental, desenvolvido pelo Google.

O modelo S1 foi criado com base no projeto QWEN2.5 do Alibaba (Cloud) Open Source. Inicialmente, os pesquisadores usaram um conjunto de dados de 59.000 perguntas, mas durante os experimentos chegaram à conclusão de que um aumento na quantidade de dados não fornece melhorias significativas e, para o treinamento final, eles usaram apenas um pequeno conjunto de 1000 questões. Ao mesmo tempo, foi utilizado apenas 16 GPU NVIDIA H100.

No S1, também foi utilizada uma técnica chamada “Escala de tempo de teste”, que permite que o modelo “reflita” antes de gerar uma resposta. Os pesquisadores também estimularam o modelo a dobrar suas conclusões adicionando um comando na forma da palavra “espera” (“espera”), que forçou a IA a continuar raciocinando e corrigindo erros em suas respostas.

Alega-se que o modelo S1 mostrou resultados impressionantes e foi capaz de superar a previsão OpenAI O1 em 27 % ao resolver problemas matemáticos. O modelo R1 recentemente sensacional da DeepSeek também usou uma abordagem semelhante para relativamente pouco dinheiro. É verdade que agora o OpenAI acusa o Deepseek de extrair informações de seus modelos, violando as condições de serviço. Vale a pena dizer que, nas condições de usar o Google Gemini, é indicado que sua API é proibida de usar para criar bots de bate -papo concorrentes.

Um aumento no número de modelos menores e mais baratos pode, de acordo com especialistas, entregar todo o setor e provar que não há necessidade de investir bilhões de dólares em treinamento de IA, criar grandes centers e comprar uma grande quantidade de GPU.

avalanche

Postagens recentes

Outra GeForce RTX 5090 sofreu danos significativos depois que um conector de alimentação 12V-2×6 pegou fogo.

Um usuário do Reddit relatou um incêndio em um conector de alimentação 12V-2x6 de 12+4…

24 minutos atrás

Há 50 anos, a inteligência artificial derrotou o campeão soviético de xadrez pela primeira vez.

Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…

6 horas atrás

Há 50 anos, a inteligência artificial derrotou o campeão soviético de xadrez pela primeira vez.

Em 1975, uma aposta curiosa foi feita na URSS entre cientistas do Instituto de Ciências…

6 horas atrás

Médico do Ritmo – No Ritmo do Coração. Resenha

Processador Intel Core 2 Duo E4600 2.4 GHz / AMD Athlon 64 X2 4600 2.4…

6 horas atrás

A Intel montou um chip de IA gigante a partir de 16 núcleos de computação e 24 módulos HBM5.

A Intel foi a primeira a desenvolver uma arquitetura de chiplets claramente desagregada — as…

7 horas atrás

O chefe da Battlestate Games esclareceu que Escape from Tarkov não foi criado para diversão e entretenimento.

A maioria dos videogames é projetada para proporcionar diversão e entretenimento, mas o jogo de…

9 horas atrás