A Apple recusou-se a partir de digitalização de fotos no iCloud, através de um sistema de CSAM Detection, concebido para a protecção de crianças

Ainda em 2021, a Apple anunciou uma série de medidas para garantir a segurança das crianças, incluindo a digitalização de fotos em galerias privadas iCloud Photos através de um sistema de Child Sexual Abuse Material (CSAM) Detection, capaz de identificar crimes contra crianças. No entanto, isso gerou fortes críticas de ativistas de direitos humanos, viu a ameaça à privacidade na intenção de acabar de digitalização фотоконтента.

Источник изображения: LinkedIn Vendas de Soluções/unsplash.com

Depois disso, a Apple adiou o primeiro uso do sistema por tempo indeterminado, e agora não anunciou hoje que os planos de implementação de um sistema de reconhecimento CSAM-os materiais serão anuladas. No mesmo dia, a empresa anunciou o programa Advanced Data Protection, oferecendo através de criptografia de dados para o iCloud. A notícia confirmou em uma entrevista ao The Wall Street Journal e um dos gestores de topo da empresa — Joanna Stern (Joanna Stern).

Quando CSAM Detection só foi anunciado no, a Apple declarou que ocultar conteúdos no iCloud, Photos, será possível reconhecer em dispositivos próprios usuários.

Como relatado no ano passado, a Kaspersky Lab, “para isso, utiliza a tecnologia de NeuralHash, de fato, cria uma id digital de fotos, dependendo de seu conteúdo. Se o id coincide com o banco de famosas fotos com a exploração sexual de crianças informação é enviada para os servidores da Apple. Lá é realizado um outro teste”. Como afirmaram os representantes da “Kaspersky lab”, mais um elemento do sistema criptográfico protocolo de Private Set Intersection. Ele criptografa os resultados do trabalho CSAM Detection, para decifrá-las para o lado da Apple, seria possível apenas no caso de execução de uma série de critérios. Teoricamente, deveria ser evitada a utilização de sistema fora do impostas restrições.

De uma forma ou de outra, o sistema CSAM Detection causou fortes críticas por parte dos usuários, especialistas e defensores dos direitos humanos. Não menos importante, porque o sistema utilizado para a busca de uma foto com os crimes contra as crianças pode ser facilmente перенастроена pesquisa e para qualquer outro tipo de conteúdo. Para não mencionar o fato de que неуязвимых para usuários mal-intencionados algoritmos na verdade, não, e criar o excesso de “backdoor” simplesmente perigoso.

Agora, a Apple decidiu abandonar essa prática, e não digitando-lo em ação. No entanto, outras medidas de proteção a crianças, incluindo as que o iMessage, ainda funcionam no iOS.

avalanche

Postagens recentes

A Samsung e a Noôdome discutiram as perspectivas da IA ​​nos negócios.

Representantes da Samsung, juntamente com a comunidade Noôdome, realizaram um evento intitulado "Ciência e IA:…

46 minutos atrás

Xiaomi, Oppo, Vivo e Honor se uniram para combater o superaquecimento e o travamento de smartphones.

Os principais fabricantes chineses de smartphones, por meio da Aliança do Ecossistema de Terminais Inteligentes…

46 minutos atrás

Metade do código de software do Google já é escrita por IA — e mais virá.

Os serviços de programação baseados em inteligência artificial continuam a ganhar popularidade, e o Google…

46 minutos atrás

Órgãos reguladores antitruste do Reino Unido iniciaram uma ação coletiva contra a Microsoft, exigindo 2 bilhões de libras esterlinas.

No Reino Unido, está em andamento um processo movido por 59.000 empresas e organizações que…

1 hora atrás

A Bolt Graphics concluiu o projeto do chip gráfico Zeus, que é significativamente superior ao RTX 5090.

A Bolt Graphics anunciou a conclusão de um chip de teste para placas gráficas Zeus.…

1 hora atrás

A popularidade do Galaxy S26 não impedirá que a divisão de celulares da Samsung sofra grandes prejuízos este ano.

Fabricantes de smartphones estão sendo forçados a aumentar preços ou reduzir lucros devido à escassez…

2 horas atrás