O sistema da Apple para encontrar imagens ilegais no iPhone foi enganado – falhas graves foram encontradas nos algoritmos

Os pesquisadores conseguiram criar um conflito na função hash embutida do iOS, que conta com o sistema para detectar imagens contendo cenas de abuso infantil. O problema afeta o sistema de hashing NeuralHash, que permite à Apple localizar imagens ilegais sem coletar nenhuma informação sobre imagens não correspondentes.

Theverge.com

Na terça-feira, o usuário do GitHub Asuhariet Ygvar postou o código para uma versão de engenharia reversa do NeuralHash para Python. O pesquisador conseguiu rastrear alguns dos princípios do sistema. Por exemplo, permite redimensionar e reduzir a imagem, mas não pode cortar ou girar. Assim que o código se tornou publicamente disponível, falhas graves foram descobertas. Um usuário conseguiu criar um conflito no algoritmo usando duas imagens que geram o mesmo hash. Se os resultados desse experimento forem confirmados, isso pode ser considerado um problema sério para o sistema aparentemente confiável da Apple.

Lembre-se de que, no início de agosto, a Apple introduziu um sistema para detectar imagens contendo cenas de abuso infantil. O sistema contém muitas medidas para proteger a privacidade dos usuários. Ele restringe a digitalização de imagens carregadas para o iCloud e gera uma notificação somente depois que 30 correspondências são encontradas. No entanto, os defensores da privacidade continuam preocupados com o impacto potencial da varredura de repositórios personalizados para a detecção de conteúdo ilegal. A nova descoberta aumentou as preocupações sobre como o novo sistema poderia ser usado.

Deve-se notar que a vulnerabilidade encontrada é muito difícil de usar em condições reais. Para isso, é necessário criar pelo menos 30 imagens ilegais, determinadas pelo sistema, e depois transferi-las discretamente para o smartphone da vítima. Mesmo se for bem-sucedido, apenas uma mensagem será gerada para a Apple, que identifica facilmente um falso positivo. No entanto, a vulnerabilidade encontrada provavelmente intensificará as críticas ao novo sistema de detecção de conteúdo ilegal. Na terça-feira, a Electronic Frontier Foundation publicou uma petição instando a Apple a abandonar sua implementação. A petição já coletou cerca de duas mil assinaturas.

avalanche

Postagens recentes

NVIDIA Groq 3: SRAM, desagregação, determinismo

As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…

1 hora atrás

A primeira cerveja do mundo feita com CO₂ extraído diretamente do ar ambiente foi lançada nos EUA.

Pela primeira vez no mundo, a cerveja foi carbonatada com dióxido de carbono (CO₂) capturado…

3 horas atrás

A Sony fechará o novo estúdio de direção de Call of Duty: Black Ops 3 um ano após sua inauguração.

Apenas um mês se passou desde o chocante fechamento da Bluepoint Games (responsável pelos remakes…

3 horas atrás

A Apple confirmou a exibição de anúncios no app Mapas e prometeu não rastrear os movimentos dos usuários.

A Apple confirmou a futura inclusão de anúncios no aplicativo Mapas. As mudanças entrarão em…

3 horas atrás