De acordo com o jornalismo investigativo sem fins lucrativos ProPublica, o Facebook, empresa controladora do WhatsApp, é de alguma forma capaz de visualizar o conteúdo das mensagens dos usuários. Se isso for verdade, o Facebook provavelmente enfrentará outro escândalo, já que a empresa afirmou repetidamente que não tem acesso às mensagens dos usuários.
Imagem: 9to5 Mac
Com a criptografia ponta a ponta, quando os dados são criptografados e descriptografados diretamente nos dispositivos dos usuários, o Facebook não deve ter acesso ao conteúdo das mensagens. A fonte afirma que os funcionários do WhatsApp veem mensagens sinalizadas pelos usuários como conteúdo impróprio. Ele também observa que a empresa coleta grandes quantidades de metadados para detectar conteúdo proibido sem ter que visualizar o conteúdo das mensagens. No que se refere ao staff do messenger, nota-se que os moderadores têm a possibilidade de “verificar as mensagens, imagens e vídeos dos utilizadores”.
O WhatsApp tem uma enorme base de usuários, razão pela qual a plataforma é frequentemente usada para espalhar desinformação e conteúdo proibido. A empresa está a envidar esforços para o combater, utilizando algoritmos especiais de identificação de mensagens com base na análise de metadados, aplicando restrições ao número de mensagens enviadas, etc. Segundo a ProPublica, os moderadores do serviço continuam a ter acesso ao conteúdo das mensagens dos utilizadores.
«Antes do envio da mensagem, uma notificação aparece na tela do aparelho do usuário: “Ninguém fora deste chat, nem mesmo o WhatsApp, pode ler ou ouvir as mensagens.” Essas afirmações não são verdadeiras. O WhatsApp tem mais de 1.000 funcionários contratados em Austin, Texas, Dublin e Cingapura, pesquisando milhões de peças de conteúdo gerado pelo usuário ”, diz ProPublica. Também é observado que os moderadores usam um software especial para visualizar as mensagens sinalizadas pelos usuários como conteúdo impróprio.
Segundo a fonte, os moderadores do WhatsApp operam em sigilo absoluto. Não há menção ao Facebook ou WhatsApp nas listas de empregos para o cargo de “Diretor de moderação de conteúdo”, e as pessoas precisam assinar um contrato de sigilo ao contratar. Como o WhatsApp usa criptografia, os algoritmos de IA não podem verificar todos os bate-papos por conta própria. Em vez disso, os moderadores obtêm acesso ao conteúdo de um usuário cuja postagem é sinalizada como inadequada. Uma mensagem supostamente ofensiva é enviada ao moderador, juntamente com quatro comentários anteriores, incluindo imagens e vídeos. Tudo isso é transmitido de forma não criptografada e vai para a fila, que é processada pelos moderadores.
Em comunicado do Facebook sobre o assunto, não houve resposta direta em relação à criptografia ponta a ponta. “Nós projetamos o WhatsApp para limitar a quantidade de dados que coletamos, fornecendo ferramentas para prevenir spam, investigar ameaças e abusos, inclusive com base em relatórios de usuários que recebemos. Este trabalho requer um enorme esforço por parte dos especialistas em segurança ”, disse um porta-voz do Facebook, que também observou que o serviço acrescentou recentemente recursos adicionais para garantir a privacidade dos dados do usuário.
