Para treinar o modelo Google PaLM 2 AI, foram usados ​​cinco vezes mais dados de texto do que no modelo anterior.

Anunciado na semana passada, o modelo de linguagem grande do Google PaLM 2 foi treinado em um volume cinco vezes maior que o do modelo 2022. Isso permite que a nova rede neural resolva tarefas mais complexas em programação, matemática e redação de textos, descobriram os jornalistas da CNBC.

Fonte da imagem: blog.google

O Google PaLM 2 foi treinado com 3,6 trilhões de tokens – esses elementos de treinamento de grandes modelos de linguagem ajudam as redes neurais a prever as próximas palavras em sequências. Os algoritmos de predição, por sua vez, permitem que grandes modelos de linguagem componham frases coerentes. Sua versão anterior, Google PaLM, lançada em 2022, foi treinada para 780 bilhões de tokens.

No último evento do Google I/O, a empresa demonstrou ativamente os recursos da inteligência artificial em sua integração em busca, e-mail, trabalho com documentos de texto e planilhas, mas não forneceu detalhes sobre a quantidade de dados de treinamento. Uma estratégia semelhante foi adotada pela OpenAI, que introduziu recentemente o GPT-4. As empresas explicam suas ações pela natureza competitiva dos negócios, e o público insiste em maior transparência em relação à IA.

O Google, no entanto, disse que o novo modelo acabou sendo menor que os anteriores, ou seja, a eficiência da tecnologia na execução de tarefas mais complexas aumentou. O PaLM 2, de acordo com os documentos internos da empresa, é treinado em 340 bilhões de parâmetros, enquanto a primeira versão tinha 540 bilhões deles – isso indica que a complexidade do modelo aumentou. A empresa confirmou que o PaLM 2 é treinado em 100 idiomas, permitindo a integração em 25 recursos e produtos do ecossistema Google, incluindo o chatbot experimental Bard.

O Google PaLM 2, de acordo com dados disponíveis publicamente, pode ser mais poderoso do que todos os modelos existentes. Para efeito de comparação, o Meta* LlaMA, anunciado em fevereiro, é treinado para 1,4 trilhão de tokens; A OpenAI, quando ainda compartilhava informações, relatou que o GPT-3 foi treinado em 300 bilhões de tokens; e o Google LaMDA, lançado há dois anos, foi treinado para 1,5 trilhão de tokens.

* Está incluída na lista de associações públicas e organizações religiosas em relação às quais o tribunal decidiu definitivamente liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “No combate a extremistas atividade”.

avalanche

Postagens recentes

O ex-produtor de GTA, Leslie Benzies, “deixou temporariamente a Build a Rocket Boy”, o estúdio que fundou, enquanto a direção da MindsEye espera seguir os passos de Cyberpunk 2077.

O ex-presidente da Rockstar North e ex-produtor de GTA, Leslie Benzies, deixou, pelo menos temporariamente,…

4 horas atrás

Calendário de lançamentos de 9 a 15 de fevereiro: Reanimal, Mewgenics, Romeo is a Dead Man e Disciples: Domination.

Meados de fevereiro traz uma semana agitada com grandes lançamentos e projetos indie empolgantes. Os…

5 horas atrás

O espetacular filme de ação retrofuturista Replaced encantou os jornalistas e em breve receberá uma demo no Steam.

Replaced, um jogo de plataforma de ação retrofuturista da Sad Cat Studios, uma equipe polonesa…

6 horas atrás

A Sony confirmou a realização do seu maior State of Play de sempre, com mais de 60 minutos de anúncios de estúdios de todo o mundo.

Após uma série de rumores e revelações de fontes internas, a editora japonesa Sony Interactive…

10 horas atrás