A Microsoft informou que um bug no Microsoft 365 Copilot tem feito com que seu assistente de IA generalize e-mails confidenciais de usuários desde o final de janeiro, ignorando as políticas de prevenção contra perda de dados (DLP) que as organizações utilizam para proteger informações sensíveis. O anúncio foi feito em um dos alertas de serviço da gigante do software.

Fonte da imagem: bleepingcomputer.com
De acordo com a fonte, o problema diz respeito ao bug CW1226326, descoberto em 21 de janeiro. Ele afeta o recurso de chat da guia “Trabalho” do Copilot, fazendo com que ele leia e resuma incorretamente os e-mails armazenados nas pastas Enviados e Rascunhos, incluindo mensagens com rótulos de confidencialidade criados especificamente para restringir o acesso por ferramentas automatizadas.
“Mensagens de e-mail do usuário marcadas como ‘confidenciais’ são processadas incorretamente pelo Microsoft 365 Copilot Chat”, afirmou a Microsoft em um comunicado. A empresa também observou que essa ferramenta resume e-mails mesmo que eles tenham um rótulo de confidencialidade aplicado ou uma política de DLP configurada.
Posteriormente, a Microsoft confirmou que esse comportamento algorítmico foi causado por um erro de código, anunciando que o trabalho para implantar uma correção havia começado no início de fevereiro. Em meados da semana, a Microsoft afirmou que continua monitorando a distribuição da correção e está entrando em contato com os usuários afetados para avaliar a qualidade da atualização.
A Microsoft não forneceu um cronograma definitivo para a correção completa nem divulgou quantos usuários ou organizações foram afetados. A empresa apenas observou que o alcance do problema pode mudar conforme o incidente for investigado.