Pesquisadores encontraram uma maneira de dimensionar a IA sem treinamento adicional, mas não é certo

Uma equipe de pesquisadores do Google e da Universidade da Califórnia, Berkeley, propôs um novo método para dimensionar a inteligência artificial (IA). Isso é chamado de “busca em tempo de inferência”, que permite que o modelo gere múltiplas respostas para uma consulta e selecione a melhor. Essa abordagem pode melhorar o desempenho dos modelos sem treinamento adicional. No entanto, especialistas externos duvidaram da veracidade da ideia.

Fonte da imagem: gerada por IA

Anteriormente, a principal maneira de melhorar a IA era treinar grandes modelos de linguagem (LLM) em quantidades cada vez maiores de dados e aumentar o poder de computação ao executar (testar) o modelo. Isso se tornou a norma, ou melhor, a lei, para a maioria dos principais laboratórios de IA. O novo método proposto pelos pesquisadores envolve o modelo gerando múltiplas respostas possíveis para a consulta de um usuário e então escolhendo a melhor delas. Como observa o TechCrunch, isso melhorará significativamente a precisão das respostas, mesmo para modelos menores e mais antigos.

Como exemplo, os cientistas citaram o modelo Gemini 1.5 Pro, lançado pelo Google no início de 2024. Usando uma técnica de busca de tempo de inferência, o modelo superou o poderoso o1-preview do OpenAI em testes de matemática e ciências. Um dos autores do artigo, Eric Zhao, enfatizou: “Só selecionando aleatoriamente 200 respostas e verificando-as, o Gemini 1.5 claramente supera o o1-preview e até se aproxima do o1.”

No entanto, especialistas consideraram esses resultados previsíveis e não viram o método como um avanço revolucionário. Matthew Guzdial, pesquisador de IA da Universidade de Alberta, observou que o método só funciona quando a resposta correta pode ser claramente identificada, o que é impossível para a maioria dos problemas.

Mike Cook, pesquisador do King’s College London, concorda. Segundo ele, o novo método não melhora a capacidade de raciocínio da IA, mas apenas ajuda a contornar as limitações existentes. Ele explicou: “Se um modelo estiver errado 5% das vezes, então, ao testar 200 variantes, esses erros simplesmente se tornarão mais perceptíveis.” O principal problema é que o método não torna os modelos mais inteligentes, mas simplesmente aumenta a quantidade de computação necessária para encontrar a melhor resposta. Em condições reais, essa abordagem pode ser muito cara e ineficaz.

Apesar disso, a busca por novas maneiras de dimensionar a IA continua, pois os modelos atuais exigem enormes recursos computacionais e os pesquisadores se esforçam para encontrar métodos que melhorem o nível de raciocínio da IA ​​sem incorrer em custos excessivos.

avalanche

Postagens recentes

A Honda registrou prejuízo pela primeira vez desde 1957, já que sua estratégia de veículos elétricos se mostrou contraproducente.

A montadora japonesa Honda Motor anunciou seu primeiro prejuízo operacional desde sua abertura de capital…

3 horas atrás

O valor de mercado da Take-Two aumentou em quase US$ 3 bilhões em meio a rumores de que as pré-vendas de GTA VI estão prestes a começar.

Os rumores sobre o lançamento iminente da pré-venda do ambicioso thriller de mundo aberto e…

3 horas atrás

A China criou um computador quântico fotônico que os supercomputadores não conseguem alcançar, nem mesmo durante a existência do universo.

Cientistas chineses criaram uma nova versão do computador quântico fotônico Jiuzhang, apresentado pela primeira vez…

3 horas atrás

A Microsoft está preparando um controle Xbox Elite Series 3 de última geração com volante e Wi-Fi.

A Anatel, agência reguladora brasileira, divulgou imagens do próximo controle Xbox Elite, que apresenta diversas…

4 horas atrás

As vendas do sucesso pirata Windrose ultrapassaram dois milhões de cópias em um mês no Acesso Antecipado do Steam.

Os desenvolvedores do estúdio uzbeque Kraken Express relataram novos sucessos para seu simulador de sobrevivência…

4 horas atrás