A Apple silenciosamente removeu todas as referências a seu dispositivo de detecção de imagens de abuso infantil (CSAM) de sua página da web de segurança infantil. Especula-se que o polêmico plano da empresa de escanear todas as imagens em iPhones e iPads em busca de fotos proibidas poderia ser interrompido após uma onda de críticas à empresa.
Fonte da imagem: MacRumors
Em agosto, a Apple anunciou planos para introduzir novos recursos de segurança infantil, incluindo a digitalização de fotos personalizadas em iPhones e iPads para imagens de abuso infantil e detectar se as crianças enviam ou recebem imagens explícitas e alertas sobre os pais. Essas medidas foram criticadas por uma ampla gama de indivíduos e organizações, incluindo pesquisadores de segurança de renome, políticos, ativistas de direitos humanos e alguns funcionários da Apple.
A Apple originalmente tentou dissipar as preocupações sobre os novos recursos de segurança e tranquilizar os usuários postando respostas às perguntas mais frequentes sobre esses recursos. No entanto, apesar dos esforços da Apple, a polêmica não diminuiu. A empresa acabou lançando um recurso que detecta o recebimento e o envio de imagens explícitas, mas decidiu adiar a introdução de tecnologia para pesquisar imagens de abuso infantil nas bibliotecas de usuários do iCloud.
A Apple disse que sua decisão de atrasar o lançamento do recurso foi motivada pelo feedback de clientes, defensores e outros. A empresa afirma que pretende dedicar mais tempo para coletar informações e fazer melhorias antes de lançar esses importantes recursos de segurança infantil. Esta declaração foi adicionada à página de segurança infantil da Apple, mas agora desapareceu junto com qualquer menção ao CSAM.
