O próximo grande modelo de linguagem (LLM) da OpenAI não dará um salto tão grande quanto seus antecessores, dizem fontes online. Neste contexto, a OpenAI formou um grupo de desenvolvedores encarregados de descobrir possíveis maneiras de desenvolver e melhorar ainda mais a rede neural.
Fonte da imagem: OpenAI
O novo LLM da empresa tem o codinome Orion. A equipe que testou esse algoritmo descobriu que seu desempenho era melhor do que os LLMs existentes, mas as melhorias não foram tão dramáticas como na mudança do GPT-3 para o GPT-4. O ritmo de melhoria do LLM parece estar desacelerando, com o Orion sendo apenas marginalmente superior aos modelos de linguagem anteriores da empresa em algumas áreas, como codificação.
Para mudar isso, a OpenAI criou uma equipe de desenvolvedores cuja tarefa era encontrar estratégias que pudessem permitir à empresa continuar a melhorar o LLM diante da redução dos dados de treinamento. Segundo a fonte, as novas estratégias incluem o treinamento do Orion em dados sintéticos gerados por redes neurais, bem como a melhoria mais ativa do LLM após a conclusão do estágio inicial de treinamento. Funcionários da OpenAI se recusaram a comentar o assunto.
Segundo Mark Gurman, da Bloomberg, a Apple planeja lançar o primeiro aplicativo Siri independente como…
A OpenAI decidiu inesperadamente encerrar seu aplicativo de criação de vídeos com inteligência artificial, o…
As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…
A Razer apresentou o mouse gamer sem fio Viper V4 Pro. O novo mouse conta…
Pela primeira vez no mundo, a cerveja foi carbonatada com dióxido de carbono (CO₂) capturado…
A Intel confirmou que o CEO Lip-Bu Tan fará o discurso de abertura na Computex…