Os cientistas argumentam que o Apple CSAM não pode ser seguro “sob quaisquer circunstâncias”

Cientistas da Universidade de Princeton (EUA) há vários anos desenvolvem um sistema semelhante ao que a Apple vai usar para detectar imagens de abuso infantil nos telefones dos usuários. Em sua opinião, a tecnologia pode ser perigosa.

Fonte: engadget.com

O professor associado Jonathan Mayer e o estudante de pós-graduação Anunay Kulshrestha têm trabalhado na ideia de um sistema de detecção de materiais de abuso sexual infantil (CSAM) por vários anos. Como a Apple, eles queriam restringir a distribuição de tal conteúdo, preservando a privacidade do usuário. Em outras palavras, o objetivo era analisar conteúdo em serviços online com criptografia ponta a ponta.

Após um estudo analítico do sistema, os cientistas criaram um protótipo funcional. E eles rapidamente chegaram à conclusão de que, qualquer que seja o resultado, essa tecnologia deixa um “problema gritante” sem solução. O sistema pode ser facilmente adaptado para resolver as tarefas de rastreamento de usuários e censura. No nível técnico, em nenhuma circunstância pode ser limitado a apenas um tipo de conteúdo – seu trabalho está totalmente subordinado ao conteúdo do banco de dados, com os elementos dos quais o conteúdo é comparado em dispositivos clientes.

Os autores do projeto esclarecem que este problema não é puramente hipotético. Por exemplo, pesquisadores do Citizen Lab da Universidade de Toronto descobriram um sistema de análise semelhante no mensageiro chinês WeChat, que usa um algoritmo semelhante para detectar materiais dissidentes. Dado que a China é o segundo maior mercado da Apple, nada pode impedir o governo local se ele decidir pedir à Apple que reaproveite o sistema para uso político. O fabricante americano tem se submetido repetidamente aos diversos requisitos de Pequim.

Finalmente, existem muitas dificuldades de natureza puramente técnica. Por exemplo, o sistema pode fornecer falsos positivos. E com certas habilidades, um invasor pode enganar o sistema direcionando sua ação contra qualquer usuário inocente.

avalanche

Postagens recentes

Os bots de IA se tornaram um novo tipo de usuário da internet e geradores de tráfego — bloqueá-los não os impede.

Bots com inteligência artificial já representam uma parcela significativa do tráfego da web, segundo reportagem…

1 hora atrás

A Anthropic fez com que as ações de empresas de software e serviços financeiros caíssem US$ 285 bilhões com uma nova ferramenta de IA para negócios.

O lançamento da nova ferramenta da Anthropic, baseada em inteligência artificial, para automatizar tarefas empresariais…

2 horas atrás

O Google Gemini aprenderá a controlar um smartphone – um novo recurso já foi revelado no código.

As capacidades dos modelos modernos de inteligência artificial estão se expandindo constantemente e, num futuro…

2 horas atrás

O Windows 11 está apresentando falhas novamente, e alguns usuários estão enfrentando o desaparecimento da área de trabalho.

Foi descoberto um bug no Windows 11 que está causando mau funcionamento de elementos importantes…

3 horas atrás

A Europa acelerou sua rejeição aos serviços digitais e softwares americanos.

Em toda a Europa, governos e instituições estão buscando reduzir o uso de serviços digitais…

3 horas atrás