O sistema da Apple para encontrar imagens ilegais no iPhone foi enganado – falhas graves foram encontradas nos algoritmos

Os pesquisadores conseguiram criar um conflito na função hash embutida do iOS, que conta com o sistema para detectar imagens contendo cenas de abuso infantil. O problema afeta o sistema de hashing NeuralHash, que permite à Apple localizar imagens ilegais sem coletar nenhuma informação sobre imagens não correspondentes.

Theverge.com

Na terça-feira, o usuário do GitHub Asuhariet Ygvar postou o código para uma versão de engenharia reversa do NeuralHash para Python. O pesquisador conseguiu rastrear alguns dos princípios do sistema. Por exemplo, permite redimensionar e reduzir a imagem, mas não pode cortar ou girar. Assim que o código se tornou publicamente disponível, falhas graves foram descobertas. Um usuário conseguiu criar um conflito no algoritmo usando duas imagens que geram o mesmo hash. Se os resultados desse experimento forem confirmados, isso pode ser considerado um problema sério para o sistema aparentemente confiável da Apple.

Lembre-se de que, no início de agosto, a Apple introduziu um sistema para detectar imagens contendo cenas de abuso infantil. O sistema contém muitas medidas para proteger a privacidade dos usuários. Ele restringe a digitalização de imagens carregadas para o iCloud e gera uma notificação somente depois que 30 correspondências são encontradas. No entanto, os defensores da privacidade continuam preocupados com o impacto potencial da varredura de repositórios personalizados para a detecção de conteúdo ilegal. A nova descoberta aumentou as preocupações sobre como o novo sistema poderia ser usado.

Deve-se notar que a vulnerabilidade encontrada é muito difícil de usar em condições reais. Para isso, é necessário criar pelo menos 30 imagens ilegais, determinadas pelo sistema, e depois transferi-las discretamente para o smartphone da vítima. Mesmo se for bem-sucedido, apenas uma mensagem será gerada para a Apple, que identifica facilmente um falso positivo. No entanto, a vulnerabilidade encontrada provavelmente intensificará as críticas ao novo sistema de detecção de conteúdo ilegal. Na terça-feira, a Electronic Frontier Foundation publicou uma petição instando a Apple a abandonar sua implementação. A petição já coletou cerca de duas mil assinaturas.

avalanche

Postagens recentes

A Apple lançará um aplicativo Siri separado para iOS 27 e macOS 27.

Segundo Mark Gurman, da Bloomberg, a Apple planeja lançar o primeiro aplicativo Siri independente como…

3 horas atrás

A OpenAI encerrou abruptamente o Sora, o gerador viral de sátiras com IA.

A OpenAI decidiu inesperadamente encerrar seu aplicativo de criação de vídeos com inteligência artificial, o…

3 horas atrás

NVIDIA Groq 3: SRAM, desagregação, determinismo

As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…

4 horas atrás

A primeira cerveja do mundo feita com CO₂ extraído diretamente do ar ambiente foi lançada nos EUA.

Pela primeira vez no mundo, a cerveja foi carbonatada com dióxido de carbono (CO₂) capturado…

6 horas atrás