O sistema da Apple para encontrar imagens ilegais no iPhone foi enganado – falhas graves foram encontradas nos algoritmos

Os pesquisadores conseguiram criar um conflito na função hash embutida do iOS, que conta com o sistema para detectar imagens contendo cenas de abuso infantil. O problema afeta o sistema de hashing NeuralHash, que permite à Apple localizar imagens ilegais sem coletar nenhuma informação sobre imagens não correspondentes.

Theverge.com

Na terça-feira, o usuário do GitHub Asuhariet Ygvar postou o código para uma versão de engenharia reversa do NeuralHash para Python. O pesquisador conseguiu rastrear alguns dos princípios do sistema. Por exemplo, permite redimensionar e reduzir a imagem, mas não pode cortar ou girar. Assim que o código se tornou publicamente disponível, falhas graves foram descobertas. Um usuário conseguiu criar um conflito no algoritmo usando duas imagens que geram o mesmo hash. Se os resultados desse experimento forem confirmados, isso pode ser considerado um problema sério para o sistema aparentemente confiável da Apple.

Lembre-se de que, no início de agosto, a Apple introduziu um sistema para detectar imagens contendo cenas de abuso infantil. O sistema contém muitas medidas para proteger a privacidade dos usuários. Ele restringe a digitalização de imagens carregadas para o iCloud e gera uma notificação somente depois que 30 correspondências são encontradas. No entanto, os defensores da privacidade continuam preocupados com o impacto potencial da varredura de repositórios personalizados para a detecção de conteúdo ilegal. A nova descoberta aumentou as preocupações sobre como o novo sistema poderia ser usado.

Deve-se notar que a vulnerabilidade encontrada é muito difícil de usar em condições reais. Para isso, é necessário criar pelo menos 30 imagens ilegais, determinadas pelo sistema, e depois transferi-las discretamente para o smartphone da vítima. Mesmo se for bem-sucedido, apenas uma mensagem será gerada para a Apple, que identifica facilmente um falso positivo. No entanto, a vulnerabilidade encontrada provavelmente intensificará as críticas ao novo sistema de detecção de conteúdo ilegal. Na terça-feira, a Electronic Frontier Foundation publicou uma petição instando a Apple a abandonar sua implementação. A petição já coletou cerca de duas mil assinaturas.

avalanche

Postagens recentes

A fabricante de tênis Allbirds anunciou sua entrada no espaço da inteligência artificial — e funcionou desde o primeiro dia.

A fabricante americana de calçados Allbirds mudou radicalmente seu foco, anunciando sua transformação em NewBird…

24 minutos atrás

A alta demanda por sistemas de servidores causou escassez de componentes eletrônicos básicos.

O crescimento exponencial dos sistemas de inteligência artificial está causando escassez não apenas de chips…

42 minutos atrás

Os lucros recordes da Samsung no primeiro trimestre aumentaram o risco de novas greves de funcionários.

As greves dos funcionários da Samsung Electronics continuam sendo raras; a maior delas ocorreu no…

3 horas atrás

IA na Vigia: As Perspectivas dos Data Centers Orbitais / Inteligência Artificial

No entanto, nem todos os especialistas estão dispostos a ver o espaço próximo como um…

8 horas atrás

O novo assistente de IA da Adobe pode usar os aplicativos da Creative Cloud para executar tarefas.

Em outubro passado, a Adobe, como parte do Projeto Moonlight, apresentou um assistente de IA…

9 horas atrás

O novo assistente de IA da Adobe pode usar os aplicativos da Creative Cloud para executar tarefas.

Em outubro passado, a Adobe, como parte do Projeto Moonlight, apresentou um assistente de IA…

9 horas atrás