A Apple tentou acalmar as preocupações de usuários e ativistas de direitos humanos preocupados com a nova política da empresa que permite que o gigante da TI escaneie as fotos dos usuários no armazenamento em nuvem do iCloud, identificando imagens que potencialmente contenham elementos de abuso infantil.
Theverge.com
A Apple diz que se trata desse tipo de crime, e a empresa não vai ampliar a gama de conteúdo “detectável” e, além disso, compartilhar qualquer outra informação a pedido de autoridades alheias.
A empresa anunciou duas ferramentas na semana passada. Um usará algoritmos de aprendizado de máquina para desfocar imagens “adultas” enviadas para crianças no aplicativo Mensagens. Além disso, os pais de crianças menores de 12 anos serão notificados sobre a criança recebendo esse conteúdo ou tentando enviá-lo. A segunda ferramenta fará a varredura de todas as fotos no iCloud, identificando fotos com elementos de abuso infantil. Nesse caso, a empresa não notificará os pais, mas as autoridades policiais.
Os planos da empresa levantaram preocupações entre ativistas de direitos humanos, que temem que o trabalho da Apple vá além de sua missão de manter as crianças seguras.
Segundo a Apple, a empresa tem recebido repetidamente pedidos das autoridades para ampliar a lista de conteúdos analisados, mas sempre se recusou a responder a esses pedidos.
Na verdade, a empresa costuma fazer concessões com autoridades em diferentes regiões – desde a venda de iPhones sem FaceTime em países que proíbem chamadas de vídeo criptografadas até a remoção de milhares de aplicativos da versão chinesa da App Store. Estes não são os únicos, mas sim exemplos notáveis.
Além disso, existem algumas preocupações de que a função “desfocar” do conteúdo adulto no aplicativo Mensagens não funcione corretamente. Embora os algoritmos não forneçam as próprias imagens para a Apple ou agências de aplicação da lei, não está claro com que precisão a função detectará conteúdo impróprio e se, por exemplo, desfocará imagens completamente inofensivas.
Os ativistas dos direitos humanos temem que um simples toque nas caixas de seleção impeça o envio de qualquer coisa, não apenas para crianças, mas também para adultos. As recentes tentativas do Tumblr de bloquear conteúdo potencialmente explícito são um exemplo de como a tecnologia falhou, de acordo com a Electronic Frontier Foundation.
