O sistema da Apple para encontrar imagens ilegais no iPhone foi enganado – falhas graves foram encontradas nos algoritmos

Os pesquisadores conseguiram criar um conflito na função hash embutida do iOS, que conta com o sistema para detectar imagens contendo cenas de abuso infantil. O problema afeta o sistema de hashing NeuralHash, que permite à Apple localizar imagens ilegais sem coletar nenhuma informação sobre imagens não correspondentes.

Theverge.com

Na terça-feira, o usuário do GitHub Asuhariet Ygvar postou o código para uma versão de engenharia reversa do NeuralHash para Python. O pesquisador conseguiu rastrear alguns dos princípios do sistema. Por exemplo, permite redimensionar e reduzir a imagem, mas não pode cortar ou girar. Assim que o código se tornou publicamente disponível, falhas graves foram descobertas. Um usuário conseguiu criar um conflito no algoritmo usando duas imagens que geram o mesmo hash. Se os resultados desse experimento forem confirmados, isso pode ser considerado um problema sério para o sistema aparentemente confiável da Apple.

Lembre-se de que, no início de agosto, a Apple introduziu um sistema para detectar imagens contendo cenas de abuso infantil. O sistema contém muitas medidas para proteger a privacidade dos usuários. Ele restringe a digitalização de imagens carregadas para o iCloud e gera uma notificação somente depois que 30 correspondências são encontradas. No entanto, os defensores da privacidade continuam preocupados com o impacto potencial da varredura de repositórios personalizados para a detecção de conteúdo ilegal. A nova descoberta aumentou as preocupações sobre como o novo sistema poderia ser usado.

Deve-se notar que a vulnerabilidade encontrada é muito difícil de usar em condições reais. Para isso, é necessário criar pelo menos 30 imagens ilegais, determinadas pelo sistema, e depois transferi-las discretamente para o smartphone da vítima. Mesmo se for bem-sucedido, apenas uma mensagem será gerada para a Apple, que identifica facilmente um falso positivo. No entanto, a vulnerabilidade encontrada provavelmente intensificará as críticas ao novo sistema de detecção de conteúdo ilegal. Na terça-feira, a Electronic Frontier Foundation publicou uma petição instando a Apple a abandonar sua implementação. A petição já coletou cerca de duas mil assinaturas.

avalanche

Postagens recentes

TSMC nega rumores de que Jensen Huang tentou pressioná-la em nome de Trump

Há duas semanas, o CEO da Nvidia, Jensen Huang, voou inesperadamente para Taiwan e passou…

2 horas atrás

A substituição de importações continua sendo o principal impulsionador dos gastos com TI nas empresas russas

A substituição de importações continua sendo o foco de atenção de empresas em diversos setores…

2 horas atrás

O lendário jogo de tiro Quake III Arena está disponível em navegadores – grátis, sem registro, SMS e publicidade

A Dos.Zone Team, uma equipe de entusiastas que trouxe o lendário jogo de estratégia em…

2 horas atrás