Modelo Chinês II Kimi K1.5 Masterizou o raciocínio multimodal e superou o OpenAi O1

Se 2024 se tornou o ano dos clones de chatgpt, 2025 promete se tornar uma era de modelos de IA de raciocínio, e os laboratórios chineses capturam liderança nessa área. Na semana passada, muito barulho fez uma vencimento profundo com seu modelo de raciocínio R1. E no outro dia, a Moonshot AI introduziu o Kimi K1.5 multimodal, que ultrapassa os testes Openai O1 e custa muitas vezes menos. Esses modelos são uma mudança na idéia do “processo mental” da IA.

Fonte da imagem: Kimi.ai

Novos modelos foram longe da recontagem banal da Wikipedia. Eles podem causar problemas difíceis – desde a solução de quebra -cabeças até a explicação da física quântica. E o Kimi K1.5 já conseguiu ganhar o título de “O primeiro concorrente real O1”. Segundo especialistas, Kimi K1.5 não é apenas mais um modelo de IA – este é um salto no treinamento multimodal de raciocínio e reforço. Kimi K1.5 da Moonshot AI combina o texto, o código e os dados visuais para resolver problemas complexos, às vezes muitas vezes superiores a líderes da indústria como o GPT-4O e o Claude Sonnet 3.5 em testes-chave.

A janela de contexto Kimi K1.5 para 128 mil tokens permite que o modelo “em uma abordagem” processe a quantidade de informações equivalentes a um romance sólido. Nas tarefas matemáticas, o modelo pode planejar, refletir e ajustar suas etapas para centenas de tokens, imitando uma solução para o problema de uma pessoa. Em vez de gerar respostas completas, Kimi usa fragmentos de trajetórias anteriores, aumentando a eficácia e reduzindo os custos de treinamento.

Fonte da imagem: Medium.com

A abordagem tradicional, com base nos princípios de treinamento com reforço, envolve o uso de ferramentas complexas, como a busca pela madeira de Monte Carlo ou a rede de valores. A equipe de IA da Moonshot os abandonou e criou uma estrutura simplificada com base no aprendizado de reforço, usando a multa para o comprimento e o equilíbrio entre pesquisa e operação. Como resultado, os desenvolvedores conseguiram criar um modelo que estuda mais rapidamente e evita o “pensamento excessivo” – um erro comum quando a IA gasta recursos computacionais em etapas desnecessárias.

Kimi K1.5 conseguiu se mostrar como uma poderosa ferramenta de visualização e um trabalho simultâneo com o texto. O modelo pode analisar diagramas, resolver problemas geométricos e depurar o código – no teste Mathvista, o modelo mostrou uma precisão de 74,9 %, combinando dicas de texto com diagramas gráficos.

Pesquisadores da Moonshot AI, em vez de confiar no raciocínio poderoso, mas lento de cadeia longa (de longo prazo), usaram o método de Long2Short (“Longa-Short”), alcançando respostas mais concisas e rápidas. Os seguintes métodos foram usados ​​para isso:

  • Combinando modelos misturando pesos de versões longas e curtas de COT.
  • Amostra O desvio mais curto é a seleção da resposta mais curta e mais correta de oito opções geradas.
  • Otimização do DPO – Ensinar um modelo a preferir respostas breves sem perda de significado.

Mesmo com uma comparação direta, o Kimi K1.5 deixa o Soneto GPT-4O e Claude 3,5 muito atrás. Os desenvolvedores da Moonshot AI conseguiram otimizar o processo de reforço com:

  • Implantação híbrida – uso conjunto dos recursos da GPU para treinamento e retirada.
  • Implantação parcial – dividindo trajetórias longas em fragmentos controlados para um treinamento mais eficaz.
  • Código Sandboxes – Mídia segura para testar a saída do código, o que garante sua confiabilidade.

Segundo especialistas, Kimi K1.5 não é apenas um avanço tecnológico, mas uma olhada no futuro da IA. Combinando treinamento com reforços com raciocínio multimodal, este modelo resolve problemas mais rápidos, mais inteligentes e mais eficazes.

avalanche

Postagens recentes

TrendForce: Os investimentos de capital de oito empresas de hiperescala em 2026 ultrapassarão o PIB da Irlanda.

Este ano, a TrendForce estima que os oito maiores provedores de nuvem do mundo —…

37 minutos atrás

A NASA alterou radicalmente o programa Artemis para evitar perder a corrida lunar para a China: o pouso foi adiado e o módulo de pouso SLS foi reduzido.

Altos funcionários dos EUA afirmaram repetidamente que um segundo pouso lunar da China antes dos…

38 minutos atrás

Supermicro apresenta plataforma MicroBlade de alta densidade baseada no AMD EPYC 4005

A Supermicro anunciou sua nova plataforma de servidores MicroBlade para implantações em nuvem e edge…

1 hora atrás

O remake de Bloodborne da Bluepoint Games quase se tornou realidade — a Sony aprovou o projeto, mas havia um porém.

Ao longo de todos esses anos, os fãs culparam a Sony Interactive Entertainment, dona da…

1 hora atrás

A Meta não conseguiu criar seu próprio chip de IA porque é “muito complicado” e sofre com “problemas técnicos”.

A Meta✴ encontrou dificuldades no desenvolvimento de seus próprios aceleradores para sistemas de inteligência artificial…

2 horas atrás

A Dell apresentou o servidor externo PowerEdge XR9700 com sistema de refrigeração de circuito fechado.

A Dell anunciou o servidor PowerEdge XR9700, projetado para infraestruturas Cloud RAN e aplicações de…

3 horas atrás