Um poderoso modelo de IA sem atribuição, lançado recentemente na plataforma OpenRouter, gerou rumores de que a startup chinesa DeepSeek pode estar testando discretamente seu sistema de próxima geração antes do lançamento oficial. O modelo gratuito, chamado Hunter Alpha, apareceu no OpenRouter em 11 de março sem qualquer atribuição de desenvolvedor e foi posteriormente rotulado como um “modelo oculto” pela própria plataforma.
Durante testes conduzidos pela Reuters, o chatbot Hunter Alpha se descreveu como um modelo de IA chinês treinado principalmente em chinês e afirmou que seus dados de treinamento abrangiam até maio de 2025. Essa data de conhecimento coincide com a data relatada pelo próprio chatbot da DeepSeek. No entanto, quando questionado sobre o criador do sistema, recusou-se a identificar o desenvolvedor, afirmando que conhecia apenas seu nome, escala de parâmetros e comprimento da janela de contexto. Nem a DeepSeek nem o OpenRouter identificaram o criador do modelo ou responderam aos pedidos de comentários.
A página de perfil do Hunter Alpha revela suas impressionantes especificações técnicas: o modelo possui 1 trilhão de parâmetros, o que implica em altas demandas computacionais. Além disso, o sistema suporta uma janela de contexto de até 1 milhão de tokens, permitindo processar enormes volumes de texto em uma única sessão. O engenheiro de agentes de IA, Nabil Haouam, observou que a combinação de uma janela de 1 milhão de tokens, capacidades de raciocínio lógico e acesso gratuito é imediatamente impressionante, visto que modelos com classificação semelhante normalmente exigem custos de escalabilidade significativos.
Esses valores (1) são precisamente o que impulsiona este algoritmo.Um trilhão de parâmetros e um milhão de tokens de contexto estão associados ao próximo modelo DeepSeek V4, com lançamento previsto para abril. Essa coincidência gerou uma onda de rumores de que o Hunter Alpha pode ser uma versão de teste inicial do novo produto da startup chinesa. Uma análise do modelo, também conduzida pelo engenheiro Daniel Dewhurst, revelou que o sinal-chave pode ser o padrão de raciocínio. Segundo ele, o estilo de raciocínio lógico usado por um chatbot é muito difícil de falsificar e geralmente reflete o método de treinamento do modelo.
No entanto, nem todos compartilham dessa convicção. Umur Ozkul, após realizar um teste independente, afirmou que sua análise indica que o Hunter Alpha provavelmente não é o DeepSeek V4. Ele citou diferenças no comportamento relacionado a tokens e nos padrões arquitetônicos em comparação com os sistemas DeepSeek existentes.
Independentemente de sua autoria, o modelo rapidamente ganhou popularidade. De acordo com as estatísticas do OpenRouter, até domingo, ele havia processado mais de 160 bilhões de tokens. Grande parte dessa atividade veio de ferramentas e frameworks de desenvolvimento para agentes de IA. Vale ressaltar que a prática de executar modelos anonimamente não é incomum — é uma maneira comum de os desenvolvedores receberem feedback objetivo da comunidade.