A Apple recusou-se a partir de digitalização de fotos no iCloud, através de um sistema de CSAM Detection, concebido para a protecção de crianças

Ainda em 2021, a Apple anunciou uma série de medidas para garantir a segurança das crianças, incluindo a digitalização de fotos em galerias privadas iCloud Photos através de um sistema de Child Sexual Abuse Material (CSAM) Detection, capaz de identificar crimes contra crianças. No entanto, isso gerou fortes críticas de ativistas de direitos humanos, viu a ameaça à privacidade na intenção de acabar de digitalização фотоконтента.

Источник изображения: LinkedIn Vendas de Soluções/unsplash.com

Depois disso, a Apple adiou o primeiro uso do sistema por tempo indeterminado, e agora não anunciou hoje que os planos de implementação de um sistema de reconhecimento CSAM-os materiais serão anuladas. No mesmo dia, a empresa anunciou o programa Advanced Data Protection, oferecendo através de criptografia de dados para o iCloud. A notícia confirmou em uma entrevista ao The Wall Street Journal e um dos gestores de topo da empresa — Joanna Stern (Joanna Stern).

Quando CSAM Detection só foi anunciado no, a Apple declarou que ocultar conteúdos no iCloud, Photos, será possível reconhecer em dispositivos próprios usuários.

Como relatado no ano passado, a Kaspersky Lab, “para isso, utiliza a tecnologia de NeuralHash, de fato, cria uma id digital de fotos, dependendo de seu conteúdo. Se o id coincide com o banco de famosas fotos com a exploração sexual de crianças informação é enviada para os servidores da Apple. Lá é realizado um outro teste”. Como afirmaram os representantes da “Kaspersky lab”, mais um elemento do sistema criptográfico protocolo de Private Set Intersection. Ele criptografa os resultados do trabalho CSAM Detection, para decifrá-las para o lado da Apple, seria possível apenas no caso de execução de uma série de critérios. Teoricamente, deveria ser evitada a utilização de sistema fora do impostas restrições.

De uma forma ou de outra, o sistema CSAM Detection causou fortes críticas por parte dos usuários, especialistas e defensores dos direitos humanos. Não menos importante, porque o sistema utilizado para a busca de uma foto com os crimes contra as crianças pode ser facilmente перенастроена pesquisa e para qualquer outro tipo de conteúdo. Para não mencionar o fato de que неуязвимых para usuários mal-intencionados algoritmos na verdade, não, e criar o excesso de “backdoor” simplesmente perigoso.

Agora, a Apple decidiu abandonar essa prática, e não digitando-lo em ação. No entanto, outras medidas de proteção a crianças, incluindo as que o iMessage, ainda funcionam no iOS.

avalanche

Postagens recentes

A “data de morte” do ChromeOS foi revelada — o Google fornecerá um período razoável de suporte para o sistema operacional em fase final de desenvolvimento.

O Google planeja descontinuar completamente seu sistema operacional ChromeOS até 2034, substituindo-o por uma nova…

47 minutos atrás

A Epic Games Store está ficando mais rápida e fácil de usar.

A Epic Games planeja redesenhar completamente a arquitetura principal de seu launcher e revelar os…

1 hora atrás

A Western Digital anunciou a data de lançamento de seus HDDs de 100 TB, com os modelos de 40 a 44 TB com HAMR quase prontos.

Durante sua apresentação para investidores no Innovation Day, a Western Digital revelou seus planos. A…

1 hora atrás

The Outer Worlds 2 e Avowed não corresponderam às expectativas da Microsoft, mas isso não significa o fim para a Obsidian.

O estúdio Obsidian Entertainment, pertencente à Microsoft, lançou três projetos em 2025 — o jogo…

3 horas atrás

A Snowflake agora colaborará diretamente com a OpenAI, sem passar pela Microsoft.

A Snowflake, empresa de ciência de dados com IA baseada em nuvem, anunciou uma parceria…

7 horas atrás

A Apple detém 69% do mercado de smartphones nos EUA, enquanto a Samsung possui cinco vezes menos.

No quarto trimestre de 2025, a Apple alcançou uma participação historicamente alta nas vendas de…

7 horas atrás