O sistema da Apple para encontrar imagens ilegais no iPhone foi enganado – falhas graves foram encontradas nos algoritmos

Os pesquisadores conseguiram criar um conflito na função hash embutida do iOS, que conta com o sistema para detectar imagens contendo cenas de abuso infantil. O problema afeta o sistema de hashing NeuralHash, que permite à Apple localizar imagens ilegais sem coletar nenhuma informação sobre imagens não correspondentes.

Theverge.com

Na terça-feira, o usuário do GitHub Asuhariet Ygvar postou o código para uma versão de engenharia reversa do NeuralHash para Python. O pesquisador conseguiu rastrear alguns dos princípios do sistema. Por exemplo, permite redimensionar e reduzir a imagem, mas não pode cortar ou girar. Assim que o código se tornou publicamente disponível, falhas graves foram descobertas. Um usuário conseguiu criar um conflito no algoritmo usando duas imagens que geram o mesmo hash. Se os resultados desse experimento forem confirmados, isso pode ser considerado um problema sério para o sistema aparentemente confiável da Apple.

Lembre-se de que, no início de agosto, a Apple introduziu um sistema para detectar imagens contendo cenas de abuso infantil. O sistema contém muitas medidas para proteger a privacidade dos usuários. Ele restringe a digitalização de imagens carregadas para o iCloud e gera uma notificação somente depois que 30 correspondências são encontradas. No entanto, os defensores da privacidade continuam preocupados com o impacto potencial da varredura de repositórios personalizados para a detecção de conteúdo ilegal. A nova descoberta aumentou as preocupações sobre como o novo sistema poderia ser usado.

Deve-se notar que a vulnerabilidade encontrada é muito difícil de usar em condições reais. Para isso, é necessário criar pelo menos 30 imagens ilegais, determinadas pelo sistema, e depois transferi-las discretamente para o smartphone da vítima. Mesmo se for bem-sucedido, apenas uma mensagem será gerada para a Apple, que identifica facilmente um falso positivo. No entanto, a vulnerabilidade encontrada provavelmente intensificará as críticas ao novo sistema de detecção de conteúdo ilegal. Na terça-feira, a Electronic Frontier Foundation publicou uma petição instando a Apple a abandonar sua implementação. A petição já coletou cerca de duas mil assinaturas.

avalanche

Postagens recentes

A Sony aprendeu a ganhar dinheiro sem aumentar as vendas – as assinaturas compensaram uma queda de 16% nas remessas do PS5.

A Sony aumentou sua receita em 1%, para US$ 23,68 bilhões no último trimestre, mas…

2 horas atrás

A Foxconn viu sua receita disparar mais uma vez, graças novamente à Nvidia.

A Hon Hai Precision Industry, mais conhecida pela sua marca Foxconn, registrou um crescimento de…

2 horas atrás

A Yandex ensinou Alice a entender a fala natural para controlar uma casa inteligente.

A assistente de IA da Yandex, Alice, aprendeu a entender a fala natural para controlar…

2 horas atrás

Uma estrela despedaçada por um buraco negro lançou um jato recordista, trilhões de vezes mais poderoso que a Estrela da Morte.

Astrônomos descobriram um buraco negro supermassivo que vem expelindo os restos de uma estrela desintegrada…

3 horas atrás

O Steam Machine será lançado antes do final de junho, mas nem mesmo a Valve sabe a data ou o preço.

A Valve confirmou que ainda pretende lançar o PC gamer Steam Machine, o headset de…

3 horas atrás