Google apresenta Gemma 2 2B, um modelo de linguagem compacto que supera o GPT 3.5 Turbo

O Google revelou o Gemma 2 2B, um modelo de linguagem de inteligência artificial (LLM) compacto, mas poderoso, que pode competir com os líderes do setor, apesar de seu tamanho significativamente menor. Com apenas 2,6 bilhões de parâmetros, o novo modelo de linguagem oferece desempenho equivalente a concorrentes muito maiores, incluindo OpenAI GPT-3.5 e Mistral AI Mixtral 8x7B.

Fonte da imagem: Google

No teste LMSYS Chatbot Arena, uma popular plataforma online para benchmarking e avaliação da qualidade de modelos de inteligência artificial, o Gemma 2 2B obteve 1.130 pontos. Este resultado está um pouco à frente dos resultados do GPT-3.5-Turbo-0613 (1117 pontos) e Mixtral-8x7B (1114 pontos) – modelos com dez vezes mais parâmetros.

O Google diz que Gemma 2 2B também obteve pontuação de 56,1 no teste MMLU (Massive Multitask Language Understanding) e 36,6 no teste MBPP (Mostly Basic Python Programming), o que é uma melhoria significativa em relação à versão anterior.

Gemma 2 2B desafia a sabedoria convencional de que modelos de linguagem maiores têm um desempenho inerentemente melhor do que os menores. O desempenho do Gemma 2 2B mostra que métodos de treinamento sofisticados, eficiência arquitetônica e conjuntos de dados de alta qualidade podem compensar a falta de parâmetros. O desenvolvimento do Gemma 2 2B também destaca a crescente importância das técnicas de compressão e destilação de modelos de IA. A capacidade de compilar com eficiência informações de modelos maiores em modelos menores abre as portas para ferramentas de IA mais acessíveis, sem sacrificar o desempenho.

O Google treinou Gemma 2 2B em um enorme conjunto de dados de 2 trilhões de tokens usando sistemas alimentados por seus aceleradores proprietários de IA TPU v5e. O suporte a vários idiomas amplia seu potencial de uso em aplicações globais. O modelo Gemma 2 2B é de código aberto. Pesquisadores e desenvolvedores podem acessar o modelo por meio da plataforma Hugging Face. Ele também oferece suporte a várias estruturas, incluindo PyTorch e TensorFlow.

avalanche

Postagens recentes

A Europa está a registar um aumento acentuado da procura de computadores portáteis usados ​​devido à escassez de memória.

Com um conjunto de módulos de memória de capacidade média ficando mais caro do que…

28 minutos atrás

Hideki Sato, o pai dos consoles de jogos da Sega, faleceu.

Pouco antes do último fim de semana, Hideki Sato, um pioneiro dos consoles de jogos…

6 horas atrás

PlayStation 6 pode ter que esperar até 2028-2029 – Sony considera adiamento devido à crise de memória

Segundo uma reportagem recente da Bloomberg, a Sony está considerando adiar o lançamento do seu…

8 horas atrás

As GPUs Xe Next de próxima geração da Intel serão otimizadas para IA, não para jogos.

Como parte de sua estratégia de desenvolvimento atualizada, a Intel confirmou seus planos de lançar…

9 horas atrás

Os desenvolvedores veteranos de Diablo lançaram uma demo em grande escala do RPG de ação de próxima geração, Darkhaven, no Steam.

Uma demo de Darkhaven, um RPG de ação e fantasia sombria de nova geração da…

10 horas atrás

Milhares de usuários reclamaram de problemas com a rede social X.

Inúmeros usuários relataram que a rede social X estava indisponível. Os relatos de problemas começaram…

10 horas atrás