A Meta✴ Platforms anunciou o lançamento da família Llama 4 de modelos de IA de código aberto. A família inclui Llama 4 Scout, Maverick e Behemoth, que permitem interação multimodal, ou seja, são capazes de responder não apenas a consultas de texto, mas também a processar imagens, vídeos, etc. Eles foram treinados em “grandes quantidades de dados de texto, imagem e vídeo não rotulados” para fornecer “ampla compreensão visual”.
Inteligência Artificial: Steve Johnson / Unsplash
O sucesso dos modelos de IA da empresa chinesa DeepSeek, que apresentam desempenho igual ou superior ao das gerações anteriores dos principais algoritmos da Llama, levou a Meta✴ a acelerar seu processo de desenvolvimento nessa direção. De acordo com a fonte, os funcionários da empresa estão se esforçando muito para entender como a DeepSeek conseguiu reduzir o custo de desenvolvimento e lançamento de modelos de IA, como R1 e V3.
Fonte da imagem: Meta✴
O algoritmo Llama 4 Scout tem 17 bilhões de parâmetros ativos, 16 “especialistas” e 109 bilhões de parâmetros no total. De acordo com o Meta✴, o modelo de IA supera o Gemma 3, o Gemini 2.0 Flash-Lite e o Mistral 3.1 no processamento de diferentes tipos de tarefas. Uma das principais características do modelo é o suporte a uma janela de contexto de 10 milhões de tokens.
O Llama 4 Maverick tem 17 bilhões de parâmetros ativos e 128 “especialistas” (400 bilhões de parâmetros no total). De acordo com os desenvolvedores, o modelo supera o GPT-4o e o Gemini 2.0 Flash quando testado em vários benchmarks, e também mostra resultados comparáveis ao DeepSeek V3 no raciocínio e no processo de escrita de código de programa. O Scout pode ser executado em uma única GPU Nvidia H100, enquanto o Maverick requer um sistema Nvidia H100 DGX ou equivalente.
O modelo Llama 4 Behemoth tem 288 bilhões de parâmetros ativos e 16 “especialistas” (cerca de 2 trilhões de parâmetros no total) e supera o algoritmo GPT-4.5, Claude Sonnet 3.7 e Gemini 2.0 Pro em vários benchmarks. O modelo Llama 4 Behemoth ainda está em aprendizado, por isso ainda não está disponível publicamente. Enquanto isso, os modelos Scout e Maverick estão disponíveis no Llama.com e no Hugging Face. Além disso, o assistente de IA proprietário da empresa, Meta✴ AI, disponível nos aplicativos da empresa, como WhatsApp, Messenger e Instagram✴, foi migrado para funcionar com o Llama 4 em 40 países ao redor do mundo. A capacidade de lidar com consultas multimodais está atualmente limitada ao inglês e está disponível apenas nos EUA.
Fonte da imagem: Meta✴
«Os modelos Llama 4 marcam o início de uma nova era para o ecossistema Llama. Este é apenas o começo para a família Llama 4″, disse a Meta✴ em uma postagem de blog. A empresa afirma que o Llama 4 é o primeiro grupo de modelos de IA a usar uma arquitetura de mistura de especialistas (MoE) que é mais eficiente em treinamento e inferência. A arquitetura MoE permite que o algoritmo divida tarefas em subtarefas e, em seguida, delegue seu processamento a modelos “especialistas” menores e mais especializados.
Vale ressaltar que nenhum dos modelos do Llama 4 são modelos de “raciocínio” adequados, como o GPT-o1 ou o GPT-o3-mini da OpenAI. Os modelos de raciocínio verificam a validade de suas respostas e tendem a ter respostas mais confiáveis, mas demoram mais para serem obtidas do que os modelos tradicionais “sem raciocínio”.
O levantamento de tarifas mais altas sobre smartphones, laptops, componentes de PC e outros eletrônicos,…
O RPG de ação pós-apocalíptico Zenless Zone Zero da chinesa HoYoverse (Genshin Impact, Honkai: Star…
O ex-CEO da Intel, Pat Gelsinger, tornou-se presidente da xLight, uma empresa que planeja usar…
De acordo com fontes online, o acelerador gráfico Nvidia GeForce RTX 5060 Ti começou a…
A Apple está preparando uma grande atualização para a plataforma de software iPadOS. Com o…
A picape Tesla Cybertruck fez algo que poucos carros modernos conseguem fazer: se tornou um…