Pesquisadores da Stanford e da Universidade de Washington criaram um modelo de IA que supera o Openai na solução de problemas matemáticos. O modelo, chamado S1, foi treinado em um conjunto limitado de dados de 1000 perguntas por destilação. Isso tornou possível obter alta eficiência com recursos mínimos e provar que grandes empresas como OpenAI, Microsoft, Meta✴ e Google podem não precisar criar grandes centers, preenchendo -os com milhares de processadores gráficos da NVIDIA.
Fonte da imagem: Growtika/Unsplash
O método de destilação que os cientistas aplicou foi uma solução essencial no experimento. Essa abordagem permite que pequenos modelos estudem sobre as respostas fornecidas por modelos maiores de IA. Nesse caso, como escreve a Verge, a S1 melhorou rapidamente suas habilidades usando as respostas do modelo de inteligência artificial Gemini 2.0 Flash Thinking Experimental, desenvolvido pelo Google.
O modelo S1 foi criado com base no projeto QWEN2.5 do Alibaba (Cloud) Open Source. Inicialmente, os pesquisadores usaram um conjunto de dados de 59.000 perguntas, mas durante os experimentos chegaram à conclusão de que um aumento na quantidade de dados não fornece melhorias significativas e, para o treinamento final, eles usaram apenas um pequeno conjunto de 1000 questões. Ao mesmo tempo, foi utilizado apenas 16 GPU NVIDIA H100.
No S1, também foi utilizada uma técnica chamada “Escala de tempo de teste”, que permite que o modelo “reflita” antes de gerar uma resposta. Os pesquisadores também estimularam o modelo a dobrar suas conclusões adicionando um comando na forma da palavra “espera” (“espera”), que forçou a IA a continuar raciocinando e corrigindo erros em suas respostas.
Alega-se que o modelo S1 mostrou resultados impressionantes e foi capaz de superar a previsão OpenAI O1 em 27 % ao resolver problemas matemáticos. O modelo R1 recentemente sensacional da DeepSeek também usou uma abordagem semelhante para relativamente pouco dinheiro. É verdade que agora o OpenAI acusa o Deepseek de extrair informações de seus modelos, violando as condições de serviço. Vale a pena dizer que, nas condições de usar o Google Gemini, é indicado que sua API é proibida de usar para criar bots de bate -papo concorrentes.
Um aumento no número de modelos menores e mais baratos pode, de acordo com especialistas, entregar todo o setor e provar que não há necessidade de investir bilhões de dólares em treinamento de IA, criar grandes centers e comprar uma grande quantidade de GPU.
Estatísticas publicadas recentemente pela Jon Peddie Research afirmam que a participação da AMD no mercado…
A NVIDIA, fornecedora e investidora da Lambda, tornou-se sua maior cliente. De acordo com o…
A OpenAI reorganizou sua equipe de Comportamento de Modelos, responsável pelas características comportamentais dos modelos…
Quanto mais próximo o dia 9 de setembro, mais ativamente os analistas do setor discutem…
O estúdio que nos proporcionou os incrivelmente atmosféricos FAR: Lone Sails e FAR: Changing Tides…
Foi necessária uma decisão judicial para forçar a Tesla a indicar, em suas referências públicas…