O maior modelo de IA Llama 3.1 da Meta foi lançado – sua maior versão tem 405 bilhões de parâmetros

Meta✴ anunciou o lançamento do Llama 3.1, o maior modelo de linguagem de inteligência artificial aberta até hoje, com mais de 400 bilhões de parâmetros diferentes. De acordo com o CEO da Meta✴, Mark Zuckerberg, o modelo poderá ultrapassar o GPT-4 em desempenho em um futuro próximo e, até o final do ano, se tornará o assistente de IA mais popular do mundo.

Fonte da imagem: Reuters

Segundo o The Verge, o desenvolvimento do novo modelo exigiu grandes investimentos. O Llama 3.1 é significativamente mais complexo do que as versões anteriores lançadas há apenas alguns meses. A versão mais antiga do modelo AI possui 405 bilhões de parâmetros e foi treinada usando mais de 16.000 aceleradores Nvidia H100. Meta✴ não divulga o investimento em seu desenvolvimento, mas apenas com base no custo dos chips Nvidia, é seguro assumir que estamos falando de centenas de milhões de dólares.

Apesar do alto custo de desenvolvimento, Meta✴ decidiu tornar o código do modelo aberto. Numa carta publicada no blog oficial da empresa, Zuckerberg argumenta que os modelos de IA de código aberto ultrapassarão os modelos proprietários, assim como o Linux se tornou o sistema operacional de código aberto que alimenta a maioria dos telefones, servidores e gadgets atualmente.

Uma das principais atualizações foi a expansão da disponibilidade geográfica do serviço Meta✴ AI, que é baseado no Llama. O assistente já está disponível em 22 países, incluindo Argentina, Chile, Colômbia, Equador, México, Peru e Camarões. Além disso, se anteriormente o Meta✴ AI suportava apenas inglês, agora foram adicionados francês, alemão, hindi, italiano, português e espanhol. No entanto, é importante notar que alguns dos novos recursos estão disponíveis atualmente apenas em determinadas regiões ou em idiomas específicos.

Fonte da imagem: Meta✴

Também apareceu um recurso interessante Imagine me, que usa o modelo generativo de IA Imagine Yourself, relata o TechCrunch. Este modelo é capaz de criar imagens com base na foto do usuário e em uma consulta de texto no contexto necessário. Por exemplo, “Imagine-me como um surfista” ou “Imagine-me na praia”. Depois disso, a inteligência artificial irá gerar a imagem correspondente. O recurso está disponível em versão beta e é ativado digitando a frase “Imagine me”.

Fonte da imagem: Meta✴

Meta✴AI também receberá novas ferramentas de edição de imagens em um futuro próximo. Os usuários poderão adicionar, remover e alterar objetos em imagens usando consultas de texto. E a partir do próximo mês, os desenvolvedores prometem introduzir um botão “Editar com IA” para acessar opções adicionais de ajuste fino. Posteriormente, novos atalhos estarão disponíveis para compartilhar rapidamente imagens geradas por IA em feeds, histórias e comentários em aplicativos Meta✴.

Lembramos que Meta✴ AI foi lançado em setembro de 2023. O serviço é baseado no modelo de grande linguagem Llama 2 e oferece aos usuários a possibilidade de obter informações, gerar textos, traduzir para diversos idiomas e realizar outras tarefas por meio de inteligência artificial.

avalanche

Postagens recentes

O SSD mais rápido para IA: a Micron lançou uma série de unidades 9550 com capacidade de até 30,72 TB

A Micron Technology anunciou hoje a disponibilidade da série Micron 9550 de drives NVMe, que…

2 horas atrás

Momento histórico: o COI aprovou oficialmente a criação dos Jogos Olímpicos de eSports

Os membros do Comitê Olímpico Internacional (COI) na 142ª sessão em Paris aprovaram por unanimidade…

3 horas atrás

Microsoft confirma quando Call of Duty: Modern Warfare 3 chegará ao Game Pass

Após revelações recentes de fontes internas, a Microsoft confirmou o lançamento do jogo de tiro…

7 horas atrás