A Apple recusou-se a partir de digitalização de fotos no iCloud, através de um sistema de CSAM Detection, concebido para a protecção de crianças

Ainda em 2021, a Apple anunciou uma série de medidas para garantir a segurança das crianças, incluindo a digitalização de fotos em galerias privadas iCloud Photos através de um sistema de Child Sexual Abuse Material (CSAM) Detection, capaz de identificar crimes contra crianças. No entanto, isso gerou fortes críticas de ativistas de direitos humanos, viu a ameaça à privacidade na intenção de acabar de digitalização фотоконтента.

Источник изображения: LinkedIn Vendas de Soluções/unsplash.com

Depois disso, a Apple adiou o primeiro uso do sistema por tempo indeterminado, e agora não anunciou hoje que os planos de implementação de um sistema de reconhecimento CSAM-os materiais serão anuladas. No mesmo dia, a empresa anunciou o programa Advanced Data Protection, oferecendo através de criptografia de dados para o iCloud. A notícia confirmou em uma entrevista ao The Wall Street Journal e um dos gestores de topo da empresa — Joanna Stern (Joanna Stern).

Quando CSAM Detection só foi anunciado no, a Apple declarou que ocultar conteúdos no iCloud, Photos, será possível reconhecer em dispositivos próprios usuários.

Como relatado no ano passado, a Kaspersky Lab, “para isso, utiliza a tecnologia de NeuralHash, de fato, cria uma id digital de fotos, dependendo de seu conteúdo. Se o id coincide com o banco de famosas fotos com a exploração sexual de crianças informação é enviada para os servidores da Apple. Lá é realizado um outro teste”. Como afirmaram os representantes da “Kaspersky lab”, mais um elemento do sistema criptográfico protocolo de Private Set Intersection. Ele criptografa os resultados do trabalho CSAM Detection, para decifrá-las para o lado da Apple, seria possível apenas no caso de execução de uma série de critérios. Teoricamente, deveria ser evitada a utilização de sistema fora do impostas restrições.

De uma forma ou de outra, o sistema CSAM Detection causou fortes críticas por parte dos usuários, especialistas e defensores dos direitos humanos. Não menos importante, porque o sistema utilizado para a busca de uma foto com os crimes contra as crianças pode ser facilmente перенастроена pesquisa e para qualquer outro tipo de conteúdo. Para não mencionar o fato de que неуязвимых para usuários mal-intencionados algoritmos na verdade, não, e criar o excesso de “backdoor” simplesmente perigoso.

Agora, a Apple decidiu abandonar essa prática, e não digitando-lo em ação. No entanto, outras medidas de proteção a crianças, incluindo as que o iMessage, ainda funcionam no iOS.

avalanche

Postagens recentes

Zotac e AXGaming lançam GeForce RTX 4070 Ti branca – ambas com leve overclock de fábrica

Zotac e AXGaming revelaram suas versões da placa de vídeo GeForce RTX 4070 Ti. A…

34 minutos atrás

Google vai estender a funcionalidade de versões mais antigas do Android

O Google anunciou o lançamento da estrutura Extension Software Developer Kit, que permitirá aos desenvolvedores…

48 minutos atrás

O desenvolvedor mostrou um protótipo do jogo para o qual as redes neurais ajudaram a criar o personagem principal e todo o local

Um desenvolvedor da Finlândia trabalhou recentemente em um protótipo do jogo, ao mesmo tempo em…

49 minutos atrás

“James Webb” mostra como uma onda de choque do tamanho da Via Láctea muda o espaço ao redor de um grupo de galáxias

Colisões de galáxias geram ondas de choque gigantes, que levam a muitos fenômenos interessantes até…

1 hora atrás

Meta removerá o botão de loja da barra de navegação do Instagram

O aplicativo Instagram* está prestes a receber uma atualização que trará uma barra de navegação…

1 hora atrás

Os hackers podem forçar remotamente os dispositivos Wi-Fi a esgotar suas baterias – usando o próprio Wi-Fi

Os dispositivos habilitados para Wi-Fi se comunicam entre si mesmo que não estejam conectados à…

1 hora atrás