Google apresenta Gemma 2 2B, um modelo de linguagem compacto que supera o GPT 3.5 Turbo

O Google revelou o Gemma 2 2B, um modelo de linguagem de inteligência artificial (LLM) compacto, mas poderoso, que pode competir com os líderes do setor, apesar de seu tamanho significativamente menor. Com apenas 2,6 bilhões de parâmetros, o novo modelo de linguagem oferece desempenho equivalente a concorrentes muito maiores, incluindo OpenAI GPT-3.5 e Mistral AI Mixtral 8x7B.

Fonte da imagem: Google

No teste LMSYS Chatbot Arena, uma popular plataforma online para benchmarking e avaliação da qualidade de modelos de inteligência artificial, o Gemma 2 2B obteve 1.130 pontos. Este resultado está um pouco à frente dos resultados do GPT-3.5-Turbo-0613 (1117 pontos) e Mixtral-8x7B (1114 pontos) – modelos com dez vezes mais parâmetros.

O Google diz que Gemma 2 2B também obteve pontuação de 56,1 no teste MMLU (Massive Multitask Language Understanding) e 36,6 no teste MBPP (Mostly Basic Python Programming), o que é uma melhoria significativa em relação à versão anterior.

Gemma 2 2B desafia a sabedoria convencional de que modelos de linguagem maiores têm um desempenho inerentemente melhor do que os menores. O desempenho do Gemma 2 2B mostra que métodos de treinamento sofisticados, eficiência arquitetônica e conjuntos de dados de alta qualidade podem compensar a falta de parâmetros. O desenvolvimento do Gemma 2 2B também destaca a crescente importância das técnicas de compressão e destilação de modelos de IA. A capacidade de compilar com eficiência informações de modelos maiores em modelos menores abre as portas para ferramentas de IA mais acessíveis, sem sacrificar o desempenho.

O Google treinou Gemma 2 2B em um enorme conjunto de dados de 2 trilhões de tokens usando sistemas alimentados por seus aceleradores proprietários de IA TPU v5e. O suporte a vários idiomas amplia seu potencial de uso em aplicações globais. O modelo Gemma 2 2B é de código aberto. Pesquisadores e desenvolvedores podem acessar o modelo por meio da plataforma Hugging Face. Ele também oferece suporte a várias estruturas, incluindo PyTorch e TensorFlow.

avalanche

Postagens recentes

A Rivian iniciou a produção do SUV elétrico R2, com a primeira unidade já saindo da linha de montagem.

A Rivian iniciou oficialmente a produção em massa do SUV elétrico R2 em sua fábrica…

26 minutos atrás

Teste rápido do SSD externo MSI Datamag de 40 Gbps / Armazenamento

A MSI continua a desenvolver sua série de SSDs portáteis magnéticos. Há um ano, a…

5 horas atrás

A Cisco apresentou um protótipo de um switch quântico universal.

A Cisco Systems apresentou um protótipo de um switch de rede universal para sistemas quânticos,…

5 horas atrás

A Microsoft Gaming é coisa do passado – a divisão de jogos recuperou o nome Xbox.

A Microsoft aposentou oficialmente o nome Microsoft Gaming para sua divisão de jogos, retornando à…

6 horas atrás

Os assinantes do Game Pass não ficarão sem Call of Duty em 2026.

Os novos jogos da franquia Call of Duty chegarão ao Game Pass com um atraso…

6 horas atrás

A Intel apresentou um laptop de referência baseado no processador Wildcat Lake – ele se parece com um MacBook Neo.

Jornalistas tiveram a oportunidade de testar um dos primeiros laptops baseados no processador Intel Wildcat…

6 horas atrás