A Microsoft lançou três novos modelos Phi-3.5 AI – eles são superiores aos análogos do Google e OpenAI

A Microsoft não descansou sobre os louros da parceria com a OpenAI e lançou três novos sistemas de inteligência artificial pertencentes à família Phi – modelos linguísticos e multimodais.

Fonte da imagem: VentureBeat/Midjourney

Três novos projetos na linha Phi 3.5 incluem um grande modelo de linguagem da versão base Phi-3.5-mini-instruct com 3,82 bilhões de parâmetros, um poderoso Phi-3.5-MoE-instruct com 41,9 bilhões de parâmetros e Phi-3.5-vision- instrua com 4,15 bilhões de parâmetros – é projetado para análise de imagens e vídeos. Todos os três modelos estão disponíveis sob a marca Microsoft na plataforma Hugging Face sob licença do MIT – eles podem ser baixados, ajustados, modificados e usados ​​comercialmente sem restrições. Em testes, eles não são inferiores, e às vezes até superiores, a produtos concorrentes como Google Gemini 1.5 Flash, Meta✴ Llama 3.1 e até OpenAI GPT-4o.

Aqui e abaixo fonte da imagem: VentureBeat/Midjourney

Phi-3.5 Mini Instruct é otimizado para ambientes com recursos computacionais limitados. Este é um modelo leve com 3,8 bilhões de parâmetros. Ele foi projetado para executar instruções e suporta um comprimento de contexto de 128 mil tokens. O modelo lida com tarefas como geração de código, resolução de problemas matemáticos e raciocínio lógico. Apesar de seu tamanho compacto, o Phi-3.5 Mini Instruct é bastante competitivo em tarefas linguísticas multilíngues e com vários turnos. No teste RepoQA, que é usado para avaliar a “compreensão de código de contexto longo”, ele supera, em particular, Llama-3.1-8B-instruct e Mistral-7B-instruct.

Phi-3.5 MoE (Mixture of Experts) combina vários modelos de diferentes tipos, cada um especializado em sua própria tarefa. A arquitetura do modelo é caracterizada por 42 bilhões de parâmetros ativos e suporte de contexto de 128 mil, o que permite sua utilização em aplicações exigentes – vale ressaltar que a documentação do Hugging Face fala de apenas 6,6 bilhões de parâmetros ativos. Phi-3.5 MoE tem desempenho respeitável em matemática, geração de código e compreensão de consultas multilíngues, muitas vezes superando modelos maiores em alguns benchmarks, incluindo RepoQA; também venceu o GPT-4o mini no teste MMLU (Massive Multitask Language Understanding) nas ciências naturais e técnicas, bem como nas ciências humanas e sociais em vários níveis de conhecimento.

Phi-3.5 Vision Instruct combina recursos de processamento de texto e imagem. É adequado para reconhecer imagens e símbolos, analisar gráficos e tabelas e compilar resumos de vídeo. O Vision Instruct, como outros modelos Phi-3.5, suporta um comprimento de contexto de 128 mil tokens, o que permite trabalhar com tarefas visuais complexas de vários quadros. O sistema foi treinado em conjuntos de dados públicos sintéticos e filtrados, com foco em conjuntos de dados de raciocínio de alta qualidade e alta densidade.

Phi-3.5 Mini Instruct treinou em 3,4 trilhões de tokens usando 512 aceleradores Nvidia H100-80G durante 10 dias; o modelo de arquitetura mista Phi-3.5 MoE foi treinado em 4,9 trilhões de tokens usando 512 unidades Nvidia H100-80G em 23 dias; foram necessários 6 dias para treinar o Vision Instruct para 500 bilhões de tokens usando 256 aceleradores Nvidia A100-80G AI. Todo o trio Phi-3 está disponível sob a licença MIT, que permite aos desenvolvedores usar, modificar, mesclar, publicar, distribuir, sublicenciar ou vender cópias dos produtos livremente. A licença contém uma isenção de responsabilidade: os modelos são fornecidos “como estão”, sem garantia de qualquer tipo – a Microsoft e outros detentores de direitos autorais não são responsáveis ​​por quaisquer reclamações, danos ou outras responsabilidades que possam surgir do uso dos modelos.

avalanche

Postagens recentes

“As pessoas usam o Google porque querem”: Google vai contestar decisão judicial sobre monopólio de buscas na internet.

O Google recorreu da decisão de um juiz federal que considerou a empresa um monopólio…

1 hora atrás

China atinge a Nvidia: produção do H200 é interrompida devido a proibição alfandegária.

Após o anúncio da alfândega chinesa na terça-feira de que se recusaria a aceitar pedidos…

2 horas atrás

A Samsung planeja aumentar a produção de memória em apenas 5% em 2026.

Apesar do crescimento significativo na demanda global, a Samsung aumentará a produção de DRAM em…

4 horas atrás

Lançado o projetor portátil inteligente TCL PlayCube com design giratório.

A TCL lançou o PlayCube, um projetor de alta definição que executa o Google TV…

4 horas atrás

Os centros de dados do futuro poderão aquecer residências graças ao resfriamento passivo por meio de tubos de calor.

Não é segredo que os centros de dados modernos consomem quantidades enormes de energia, uma…

4 horas atrás