Ainda em 2021, a Apple anunciou uma série de medidas para garantir a segurança das crianças, incluindo a digitalização de fotos em galerias privadas iCloud Photos através de um sistema de Child Sexual Abuse Material (CSAM) Detection, capaz de identificar crimes contra crianças. No entanto, isso gerou fortes críticas de ativistas de direitos humanos, viu a ameaça à privacidade na intenção de acabar de digitalização фотоконтента.
Источник изображения: LinkedIn Vendas de Soluções/unsplash.com
Depois disso, a Apple adiou o primeiro uso do sistema por tempo indeterminado, e agora não anunciou hoje que os planos de implementação de um sistema de reconhecimento CSAM-os materiais serão anuladas. No mesmo dia, a empresa anunciou o programa Advanced Data Protection, oferecendo através de criptografia de dados para o iCloud. A notícia confirmou em uma entrevista ao The Wall Street Journal e um dos gestores de topo da empresa — Joanna Stern (Joanna Stern).
Quando CSAM Detection só foi anunciado no, a Apple declarou que ocultar conteúdos no iCloud, Photos, será possível reconhecer em dispositivos próprios usuários.
Como relatado no ano passado, a Kaspersky Lab, “para isso, utiliza a tecnologia de NeuralHash, de fato, cria uma id digital de fotos, dependendo de seu conteúdo. Se o id coincide com o banco de famosas fotos com a exploração sexual de crianças informação é enviada para os servidores da Apple. Lá é realizado um outro teste”. Como afirmaram os representantes da “Kaspersky lab”, mais um elemento do sistema criptográfico protocolo de Private Set Intersection. Ele criptografa os resultados do trabalho CSAM Detection, para decifrá-las para o lado da Apple, seria possível apenas no caso de execução de uma série de critérios. Teoricamente, deveria ser evitada a utilização de sistema fora do impostas restrições.
De uma forma ou de outra, o sistema CSAM Detection causou fortes críticas por parte dos usuários, especialistas e defensores dos direitos humanos. Não menos importante, porque o sistema utilizado para a busca de uma foto com os crimes contra as crianças pode ser facilmente перенастроена pesquisa e para qualquer outro tipo de conteúdo. Para não mencionar o fato de que неуязвимых para usuários mal-intencionados algoritmos na verdade, não, e criar o excesso de “backdoor” simplesmente perigoso.
Agora, a Apple decidiu abandonar essa prática, e não digitando-lo em ação. No entanto, outras medidas de proteção a crianças, incluindo as que o iMessage, ainda funcionam no iOS.
O Google planeja descontinuar completamente seu sistema operacional ChromeOS até 2034, substituindo-o por uma nova…
A Epic Games planeja redesenhar completamente a arquitetura principal de seu launcher e revelar os…
Durante sua apresentação para investidores no Innovation Day, a Western Digital revelou seus planos. A…
O estúdio Obsidian Entertainment, pertencente à Microsoft, lançou três projetos em 2025 — o jogo…
A Snowflake, empresa de ciência de dados com IA baseada em nuvem, anunciou uma parceria…
No quarto trimestre de 2025, a Apple alcançou uma participação historicamente alta nas vendas de…