A CrowdStrike, líder global em segurança cibernética, conduziu um experimento que descobriu que a qualidade do código gerado depende fortemente de quem pretende usá-lo e para quais propósitos. Por exemplo, uma solicitação para criar um programa para sistemas de controle industrial continha erros em 22,8% das vezes, enquanto ao especificar que o código se destinava ao uso em Taiwan, a taxa de erros subiu para 42,1%, ou o código foi rejeitado completamente.
A qualidade do código piorou se fosse destinado ao Tibete, Taiwan ou ao grupo religioso Falun Gong, que é proibido na China, de acordo com a TechSpot, citando o The Washington Post. Especificamente, o DeepSeek se recusou a gerar código para o Falun Gong em 45% das vezes. De acordo com especialistas da CrowdStrike, isso pode ser devido ao fato de o bot de IA seguir a linha política do Partido Comunista Chinês, gerando deliberadamente código vulnerável para determinados grupos, ou porque os dados de treinamento de algumas regiões, como o Tibete, contêm código de baixa qualidade criado por programadores menos experientes.
Uma teoria alternativa também está sendo levantada, sugerindo que o sistema pode ter decidido, de forma independente, gerar código incorreto para regiões associadas à oposição. Os pesquisadores da CrowdStrike também observaram que o código destinado aos EUA era o mais confiável, o que pode ser devido tanto à qualidade dos dados de treinamento quanto ao desejo da DeepSeek de conquistar o mercado americano.
O 3DNews relatou anteriormente que a DeepSeek frequentemente replica a posição oficial do governo chinês sobre tópicos sensíveis, independentemente de sua veracidade, e em julho, autoridades alemãsExigiu que o Google e a Apple proibissem a instalação do aplicativo da empresa em dispositivos na Alemanha devido a suspeitas de transferência ilegal de dados de usuários para a China. Vale ressaltar que o aplicativo também está proibido de ser usado em dispositivos pertencentes a agências federais e instituições governamentais nos Estados Unidos.
