O maior modelo de IA Llama 3.1 da Meta foi lançado – sua maior versão tem 405 bilhões de parâmetros

Meta✴ anunciou o lançamento do Llama 3.1, o maior modelo de linguagem de inteligência artificial aberta até hoje, com mais de 400 bilhões de parâmetros diferentes. De acordo com o CEO da Meta✴, Mark Zuckerberg, o modelo poderá ultrapassar o GPT-4 em desempenho em um futuro próximo e, até o final do ano, se tornará o assistente de IA mais popular do mundo.

Fonte da imagem: Reuters

Segundo o The Verge, o desenvolvimento do novo modelo exigiu grandes investimentos. O Llama 3.1 é significativamente mais complexo do que as versões anteriores lançadas há apenas alguns meses. A versão mais antiga do modelo AI possui 405 bilhões de parâmetros e foi treinada usando mais de 16.000 aceleradores Nvidia H100. Meta✴ não divulga o investimento em seu desenvolvimento, mas apenas com base no custo dos chips Nvidia, é seguro assumir que estamos falando de centenas de milhões de dólares.

Apesar do alto custo de desenvolvimento, Meta✴ decidiu tornar o código do modelo aberto. Numa carta publicada no blog oficial da empresa, Zuckerberg argumenta que os modelos de IA de código aberto ultrapassarão os modelos proprietários, assim como o Linux se tornou o sistema operacional de código aberto que alimenta a maioria dos telefones, servidores e gadgets atualmente.

Uma das principais atualizações foi a expansão da disponibilidade geográfica do serviço Meta✴ AI, que é baseado no Llama. O assistente já está disponível em 22 países, incluindo Argentina, Chile, Colômbia, Equador, México, Peru e Camarões. Além disso, se anteriormente o Meta✴ AI suportava apenas inglês, agora foram adicionados francês, alemão, hindi, italiano, português e espanhol. No entanto, é importante notar que alguns dos novos recursos estão disponíveis atualmente apenas em determinadas regiões ou em idiomas específicos.

Fonte da imagem: Meta✴

Também apareceu um recurso interessante Imagine me, que usa o modelo generativo de IA Imagine Yourself, relata o TechCrunch. Este modelo é capaz de criar imagens com base na foto do usuário e em uma consulta de texto no contexto necessário. Por exemplo, “Imagine-me como um surfista” ou “Imagine-me na praia”. Depois disso, a inteligência artificial irá gerar a imagem correspondente. O recurso está disponível em versão beta e é ativado digitando a frase “Imagine me”.

Fonte da imagem: Meta✴

Meta✴AI também receberá novas ferramentas de edição de imagens em um futuro próximo. Os usuários poderão adicionar, remover e alterar objetos em imagens usando consultas de texto. E a partir do próximo mês, os desenvolvedores prometem introduzir um botão “Editar com IA” para acessar opções adicionais de ajuste fino. Posteriormente, novos atalhos estarão disponíveis para compartilhar rapidamente imagens geradas por IA em feeds, histórias e comentários em aplicativos Meta✴.

Lembramos que Meta✴ AI foi lançado em setembro de 2023. O serviço é baseado no modelo de grande linguagem Llama 2 e oferece aos usuários a possibilidade de obter informações, gerar textos, traduzir para diversos idiomas e realizar outras tarefas por meio de inteligência artificial.

avalanche

Postagens recentes

Garmin revela o Fenix ​​​​8 Pro Smartwatch com suporte para celular e satélite, mas há um porém

A Garmin anunciou hoje a linha Fenix ​​8 Pro de relógios inteligentes, que suportam comunicações…

1 hora atrás

Acer apresenta o primeiro laptop Intel Panther Lake — Swift 16 AI com touchpad gigante

A Acer anunciou uma versão do notebook Swift 16 AI baseado nos futuros processadores Panther…

1 hora atrás

Ações do Google disparam após empresa evitar venda forçada do Chrome

As ações da Alphabet, controladora do Google, subiram cerca de 8% hoje, após o tribunal…

1 hora atrás

TSMC nega rumores de que Jensen Huang tentou pressioná-la em nome de Trump

Há duas semanas, o CEO da Nvidia, Jensen Huang, voou inesperadamente para Taiwan e passou…

3 horas atrás