Se 2024 se tornou o ano dos clones de chatgpt, 2025 promete se tornar uma era de modelos de IA de raciocínio, e os laboratórios chineses capturam liderança nessa área. Na semana passada, muito barulho fez uma vencimento profundo com seu modelo de raciocínio R1. E no outro dia, a Moonshot AI introduziu o Kimi K1.5 multimodal, que ultrapassa os testes Openai O1 e custa muitas vezes menos. Esses modelos são uma mudança na idéia do “processo mental” da IA.
Fonte da imagem: Kimi.ai
Novos modelos foram longe da recontagem banal da Wikipedia. Eles podem causar problemas difíceis – desde a solução de quebra -cabeças até a explicação da física quântica. E o Kimi K1.5 já conseguiu ganhar o título de “O primeiro concorrente real O1”. Segundo especialistas, Kimi K1.5 não é apenas mais um modelo de IA – este é um salto no treinamento multimodal de raciocínio e reforço. Kimi K1.5 da Moonshot AI combina o texto, o código e os dados visuais para resolver problemas complexos, às vezes muitas vezes superiores a líderes da indústria como o GPT-4O e o Claude Sonnet 3.5 em testes-chave.
A janela de contexto Kimi K1.5 para 128 mil tokens permite que o modelo “em uma abordagem” processe a quantidade de informações equivalentes a um romance sólido. Nas tarefas matemáticas, o modelo pode planejar, refletir e ajustar suas etapas para centenas de tokens, imitando uma solução para o problema de uma pessoa. Em vez de gerar respostas completas, Kimi usa fragmentos de trajetórias anteriores, aumentando a eficácia e reduzindo os custos de treinamento.
Fonte da imagem: Medium.com
A abordagem tradicional, com base nos princípios de treinamento com reforço, envolve o uso de ferramentas complexas, como a busca pela madeira de Monte Carlo ou a rede de valores. A equipe de IA da Moonshot os abandonou e criou uma estrutura simplificada com base no aprendizado de reforço, usando a multa para o comprimento e o equilíbrio entre pesquisa e operação. Como resultado, os desenvolvedores conseguiram criar um modelo que estuda mais rapidamente e evita o “pensamento excessivo” – um erro comum quando a IA gasta recursos computacionais em etapas desnecessárias.
Kimi K1.5 conseguiu se mostrar como uma poderosa ferramenta de visualização e um trabalho simultâneo com o texto. O modelo pode analisar diagramas, resolver problemas geométricos e depurar o código – no teste Mathvista, o modelo mostrou uma precisão de 74,9 %, combinando dicas de texto com diagramas gráficos.
Pesquisadores da Moonshot AI, em vez de confiar no raciocínio poderoso, mas lento de cadeia longa (de longo prazo), usaram o método de Long2Short (“Longa-Short”), alcançando respostas mais concisas e rápidas. Os seguintes métodos foram usados para isso:
- Combinando modelos misturando pesos de versões longas e curtas de COT.
- Amostra O desvio mais curto é a seleção da resposta mais curta e mais correta de oito opções geradas.
- Otimização do DPO – Ensinar um modelo a preferir respostas breves sem perda de significado.
Mesmo com uma comparação direta, o Kimi K1.5 deixa o Soneto GPT-4O e Claude 3,5 muito atrás. Os desenvolvedores da Moonshot AI conseguiram otimizar o processo de reforço com:
- Implantação híbrida – uso conjunto dos recursos da GPU para treinamento e retirada.
- Implantação parcial – dividindo trajetórias longas em fragmentos controlados para um treinamento mais eficaz.
- Código Sandboxes – Mídia segura para testar a saída do código, o que garante sua confiabilidade.
Segundo especialistas, Kimi K1.5 não é apenas um avanço tecnológico, mas uma olhada no futuro da IA. Combinando treinamento com reforços com raciocínio multimodal, este modelo resolve problemas mais rápidos, mais inteligentes e mais eficazes.