Meta✴ anunciou o lançamento do Llama 3.1, o maior modelo de linguagem de inteligência artificial aberta até hoje, com mais de 400 bilhões de parâmetros diferentes. De acordo com o CEO da Meta✴, Mark Zuckerberg, o modelo poderá ultrapassar o GPT-4 em desempenho em um futuro próximo e, até o final do ano, se tornará o assistente de IA mais popular do mundo.

Fonte da imagem: Reuters

Segundo o The Verge, o desenvolvimento do novo modelo exigiu grandes investimentos. O Llama 3.1 é significativamente mais complexo do que as versões anteriores lançadas há apenas alguns meses. A versão mais antiga do modelo AI possui 405 bilhões de parâmetros e foi treinada usando mais de 16.000 aceleradores Nvidia H100. Meta✴ não divulga o investimento em seu desenvolvimento, mas apenas com base no custo dos chips Nvidia, é seguro assumir que estamos falando de centenas de milhões de dólares.

Apesar do alto custo de desenvolvimento, Meta✴ decidiu tornar o código do modelo aberto. Numa carta publicada no blog oficial da empresa, Zuckerberg argumenta que os modelos de IA de código aberto ultrapassarão os modelos proprietários, assim como o Linux se tornou o sistema operacional de código aberto que alimenta a maioria dos telefones, servidores e gadgets atualmente.

Uma das principais atualizações foi a expansão da disponibilidade geográfica do serviço Meta✴ AI, que é baseado no Llama. O assistente já está disponível em 22 países, incluindo Argentina, Chile, Colômbia, Equador, México, Peru e Camarões. Além disso, se anteriormente o Meta✴ AI suportava apenas inglês, agora foram adicionados francês, alemão, hindi, italiano, português e espanhol. No entanto, é importante notar que alguns dos novos recursos estão disponíveis atualmente apenas em determinadas regiões ou em idiomas específicos.

Fonte da imagem: Meta✴

Também apareceu um recurso interessante Imagine me, que usa o modelo generativo de IA Imagine Yourself, relata o TechCrunch. Este modelo é capaz de criar imagens com base na foto do usuário e em uma consulta de texto no contexto necessário. Por exemplo, “Imagine-me como um surfista” ou “Imagine-me na praia”. Depois disso, a inteligência artificial irá gerar a imagem correspondente. O recurso está disponível em versão beta e é ativado digitando a frase “Imagine me”.

Fonte da imagem: Meta✴

Meta✴AI também receberá novas ferramentas de edição de imagens em um futuro próximo. Os usuários poderão adicionar, remover e alterar objetos em imagens usando consultas de texto. E a partir do próximo mês, os desenvolvedores prometem introduzir um botão “Editar com IA” para acessar opções adicionais de ajuste fino. Posteriormente, novos atalhos estarão disponíveis para compartilhar rapidamente imagens geradas por IA em feeds, histórias e comentários em aplicativos Meta✴.

Lembramos que Meta✴ AI foi lançado em setembro de 2023. O serviço é baseado no modelo de grande linguagem Llama 2 e oferece aos usuários a possibilidade de obter informações, gerar textos, traduzir para diversos idiomas e realizar outras tarefas por meio de inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *