Os cientistas argumentam que o Apple CSAM não pode ser seguro “sob quaisquer circunstâncias”

Cientistas da Universidade de Princeton (EUA) há vários anos desenvolvem um sistema semelhante ao que a Apple vai usar para detectar imagens de abuso infantil nos telefones dos usuários. Em sua opinião, a tecnologia pode ser perigosa.

Fonte: engadget.com

O professor associado Jonathan Mayer e o estudante de pós-graduação Anunay Kulshrestha têm trabalhado na ideia de um sistema de detecção de materiais de abuso sexual infantil (CSAM) por vários anos. Como a Apple, eles queriam restringir a distribuição de tal conteúdo, preservando a privacidade do usuário. Em outras palavras, o objetivo era analisar conteúdo em serviços online com criptografia ponta a ponta.

Após um estudo analítico do sistema, os cientistas criaram um protótipo funcional. E eles rapidamente chegaram à conclusão de que, qualquer que seja o resultado, essa tecnologia deixa um “problema gritante” sem solução. O sistema pode ser facilmente adaptado para resolver as tarefas de rastreamento de usuários e censura. No nível técnico, em nenhuma circunstância pode ser limitado a apenas um tipo de conteúdo – seu trabalho está totalmente subordinado ao conteúdo do banco de dados, com os elementos dos quais o conteúdo é comparado em dispositivos clientes.

Os autores do projeto esclarecem que este problema não é puramente hipotético. Por exemplo, pesquisadores do Citizen Lab da Universidade de Toronto descobriram um sistema de análise semelhante no mensageiro chinês WeChat, que usa um algoritmo semelhante para detectar materiais dissidentes. Dado que a China é o segundo maior mercado da Apple, nada pode impedir o governo local se ele decidir pedir à Apple que reaproveite o sistema para uso político. O fabricante americano tem se submetido repetidamente aos diversos requisitos de Pequim.

Finalmente, existem muitas dificuldades de natureza puramente técnica. Por exemplo, o sistema pode fornecer falsos positivos. E com certas habilidades, um invasor pode enganar o sistema direcionando sua ação contra qualquer usuário inocente.

avalanche

Postagens recentes

Microsoft compartilhará detalhes de integração do ChatGPT no evento de hoje

O grau de preocupação com a crescente concorrência no campo da inteligência artificial generativa é…

1 semana atrás

O Google apresenta o AI Bot Bard – a resposta do ChatGPT que permite apenas “os testadores certos”

O Google anunciou o lançamento de seu próprio chatbot de IA chamado Bard. Espera-se que…

1 semana atrás

Samsung vai continuar a ajudar Google a criar chips para smartphones Pixel

Os smartphones Google Pixel 7 no microprocessador proprietário Google Tensor G2 foram colocados à venda…

1 semana atrás

TECNO apresentará seu primeiro smartphone dobrável no MWC 2023 – receberá o chip Dimensity 9000+

A marca de smartphones e dispositivos inteligentes TECNO anunciou planos para revelar seu primeiro carro-chefe…

1 semana atrás