A Microsoft não descansou sobre os louros da parceria com a OpenAI e lançou três novos sistemas de inteligência artificial pertencentes à família Phi – modelos linguísticos e multimodais.
Fonte da imagem: VentureBeat/Midjourney
Três novos projetos na linha Phi 3.5 incluem um grande modelo de linguagem da versão base Phi-3.5-mini-instruct com 3,82 bilhões de parâmetros, um poderoso Phi-3.5-MoE-instruct com 41,9 bilhões de parâmetros e Phi-3.5-vision- instrua com 4,15 bilhões de parâmetros – é projetado para análise de imagens e vídeos. Todos os três modelos estão disponíveis sob a marca Microsoft na plataforma Hugging Face sob licença do MIT – eles podem ser baixados, ajustados, modificados e usados comercialmente sem restrições. Em testes, eles não são inferiores, e às vezes até superiores, a produtos concorrentes como Google Gemini 1.5 Flash, Meta✴ Llama 3.1 e até OpenAI GPT-4o.
Aqui e abaixo fonte da imagem: VentureBeat/Midjourney
Phi-3.5 Mini Instruct é otimizado para ambientes com recursos computacionais limitados. Este é um modelo leve com 3,8 bilhões de parâmetros. Ele foi projetado para executar instruções e suporta um comprimento de contexto de 128 mil tokens. O modelo lida com tarefas como geração de código, resolução de problemas matemáticos e raciocínio lógico. Apesar de seu tamanho compacto, o Phi-3.5 Mini Instruct é bastante competitivo em tarefas linguísticas multilíngues e com vários turnos. No teste RepoQA, que é usado para avaliar a “compreensão de código de contexto longo”, ele supera, em particular, Llama-3.1-8B-instruct e Mistral-7B-instruct.
Phi-3.5 MoE (Mixture of Experts) combina vários modelos de diferentes tipos, cada um especializado em sua própria tarefa. A arquitetura do modelo é caracterizada por 42 bilhões de parâmetros ativos e suporte de contexto de 128 mil, o que permite sua utilização em aplicações exigentes – vale ressaltar que a documentação do Hugging Face fala de apenas 6,6 bilhões de parâmetros ativos. Phi-3.5 MoE tem desempenho respeitável em matemática, geração de código e compreensão de consultas multilíngues, muitas vezes superando modelos maiores em alguns benchmarks, incluindo RepoQA; também venceu o GPT-4o mini no teste MMLU (Massive Multitask Language Understanding) nas ciências naturais e técnicas, bem como nas ciências humanas e sociais em vários níveis de conhecimento.
Phi-3.5 Vision Instruct combina recursos de processamento de texto e imagem. É adequado para reconhecer imagens e símbolos, analisar gráficos e tabelas e compilar resumos de vídeo. O Vision Instruct, como outros modelos Phi-3.5, suporta um comprimento de contexto de 128 mil tokens, o que permite trabalhar com tarefas visuais complexas de vários quadros. O sistema foi treinado em conjuntos de dados públicos sintéticos e filtrados, com foco em conjuntos de dados de raciocínio de alta qualidade e alta densidade.
Phi-3.5 Mini Instruct treinou em 3,4 trilhões de tokens usando 512 aceleradores Nvidia H100-80G durante 10 dias; o modelo de arquitetura mista Phi-3.5 MoE foi treinado em 4,9 trilhões de tokens usando 512 unidades Nvidia H100-80G em 23 dias; foram necessários 6 dias para treinar o Vision Instruct para 500 bilhões de tokens usando 256 aceleradores Nvidia A100-80G AI. Todo o trio Phi-3 está disponível sob a licença MIT, que permite aos desenvolvedores usar, modificar, mesclar, publicar, distribuir, sublicenciar ou vender cópias dos produtos livremente. A licença contém uma isenção de responsabilidade: os modelos são fornecidos “como estão”, sem garantia de qualquer tipo – a Microsoft e outros detentores de direitos autorais não são responsáveis por quaisquer reclamações, danos ou outras responsabilidades que possam surgir do uso dos modelos.
Na recente Cúpula de Impacto da IA na Índia, representantes da Microsoft anunciaram que a…
Em meados deste mês, após uma decisão judicial alemã, as empresas taiwanesas Acer e Asus…
A Vivo apresentou os smartphones V70 e V70 Elite. Os novos modelos apresentam um design…
Na busca por um substituto para a memória tradicional produzida com a tecnologia CMOS, que…
O VK lançou um mecanismo de busca em sua plataforma VK Video usando um modelo…
O CEO da Meta, Mark Zuckerberg, testemunhou ontem em tribunal e respondeu a inúmeras perguntas…