A Apple recusou-se a partir de digitalização de fotos no iCloud, através de um sistema de CSAM Detection, concebido para a protecção de crianças

Ainda em 2021, a Apple anunciou uma série de medidas para garantir a segurança das crianças, incluindo a digitalização de fotos em galerias privadas iCloud Photos através de um sistema de Child Sexual Abuse Material (CSAM) Detection, capaz de identificar crimes contra crianças. No entanto, isso gerou fortes críticas de ativistas de direitos humanos, viu a ameaça à privacidade na intenção de acabar de digitalização фотоконтента.

Источник изображения: LinkedIn Vendas de Soluções/unsplash.com

Depois disso, a Apple adiou o primeiro uso do sistema por tempo indeterminado, e agora não anunciou hoje que os planos de implementação de um sistema de reconhecimento CSAM-os materiais serão anuladas. No mesmo dia, a empresa anunciou o programa Advanced Data Protection, oferecendo através de criptografia de dados para o iCloud. A notícia confirmou em uma entrevista ao The Wall Street Journal e um dos gestores de topo da empresa — Joanna Stern (Joanna Stern).

Quando CSAM Detection só foi anunciado no, a Apple declarou que ocultar conteúdos no iCloud, Photos, será possível reconhecer em dispositivos próprios usuários.

Como relatado no ano passado, a Kaspersky Lab, “para isso, utiliza a tecnologia de NeuralHash, de fato, cria uma id digital de fotos, dependendo de seu conteúdo. Se o id coincide com o banco de famosas fotos com a exploração sexual de crianças informação é enviada para os servidores da Apple. Lá é realizado um outro teste”. Como afirmaram os representantes da “Kaspersky lab”, mais um elemento do sistema criptográfico protocolo de Private Set Intersection. Ele criptografa os resultados do trabalho CSAM Detection, para decifrá-las para o lado da Apple, seria possível apenas no caso de execução de uma série de critérios. Teoricamente, deveria ser evitada a utilização de sistema fora do impostas restrições.

De uma forma ou de outra, o sistema CSAM Detection causou fortes críticas por parte dos usuários, especialistas e defensores dos direitos humanos. Não menos importante, porque o sistema utilizado para a busca de uma foto com os crimes contra as crianças pode ser facilmente перенастроена pesquisa e para qualquer outro tipo de conteúdo. Para não mencionar o fato de que неуязвимых para usuários mal-intencionados algoritmos na verdade, não, e criar o excesso de “backdoor” simplesmente perigoso.

Agora, a Apple decidiu abandonar essa prática, e não digitando-lo em ação. No entanto, outras medidas de proteção a crianças, incluindo as que o iMessage, ainda funcionam no iOS.

avalanche

Postagens recentes

O Grupo Astra lançou a loja de aplicativos Astra Store para o mercado corporativo.

A Astra Group anunciou o lançamento comercial da Astra Store, uma loja de aplicativos corporativos…

57 minutos atrás

A xAI de Musk lançou o agente de IA Grok Build, um concorrente do Claude Code para geração de código de programação.

A xAI de Elon Musk lançou seu primeiro agente de IA focado em geração de…

57 minutos atrás

O Google explicou por que reduziu em um terço o armazenamento gratuito na nuvem para novos usuários do Gmail.

O Google pode em breve remover os 15 GB de armazenamento em nuvem gratuito para…

57 minutos atrás

O Google começará a penalizar sites que manipulam seus resultados de busca por IA.

O Google atualizou suas políticas de spam em buscas. Agora, tentativas de editores de sites…

57 minutos atrás

Os japoneses criaram uma memória magnética usando efeitos quânticos – ela é 25 vezes mais rápida que a DRAM, quase não esquenta e não se desgasta.

Cientistas da Universidade de Tóquio, em conjunto com colegas do Centro RIKEN CEMS, apresentaram um…

1 hora atrás