A empresa chinesa Moonshot AI, que anteriormente contava com o apoio de gigantes como Alibaba e HongShan (antiga Sequoia China), lançou um modelo de inteligência artificial de código aberto, o Kimi K2.5, capaz de compreender textos, imagens e vídeos.

Fonte da imagem: kimi.com
O modelo Kimi K2.5 é multimodal desde a sua concepção: treinado com 15 trilhões de tokens visuais e textuais mistos, ele lida com tarefas de programação e controle multiagente. Resultados de benchmarks indicam que ele está no mesmo nível de modelos proprietários de IA e até os supera em algumas tarefas. No teste de programação SWE-bench Verified, o modelo Kimi K2.5 superou o Google Gemini 3 Pro e, no SWE-bench Multilingual, superou o Gemini 3 Pro e o OpenAI GPT-5.2. No teste de reconhecimento de vídeo VideoMMMU, seu desempenho foi melhor que o do Anthropic Claude Opus 4.5. Em tarefas de programação, o Kimi K2.5 pode reproduzir uma interface com base em uma imagem ou vídeo.
O desenvolvedor disponibilizou essas capacidades para um público mais amplo com o lançamento da ferramenta de programação Kimi Code, um concorrente direto do Anthropic Claude Code e do Google Gemini CLI. Esta ferramenta pode ser usada no terminal ou integrada aos ambientes VSCode, Cursor e Zed, com consultas que suportam texto e vídeo.
A Moonshot foi fundada por Yang Zhilin, ex-pesquisador do Google e da Meta. A empresa captou US$ 1 bilhão em uma rodada de financiamento Série B, atingindo uma avaliação de US$ 2,5 bilhões. Em dezembro, a startup levantou US$ 500 milhões, alcançando uma avaliação de US$ 4,3 bilhões. A empresa planeja sua próxima rodada de financiamento com uma avaliação de US$ 5 bilhões.