A Apple confirma que estudará fotos em dispositivos de usuários para proteger as crianças

Em um briefing na quinta-feira, a Apple confirmou rumores anteriores de planos para lançar uma nova tecnologia em iOS, macOS, watchOS e iMessage que detectará imagens de abuso infantil em dispositivos de usuários.

Theverge.com

As últimas versões do iOS e iPadOS, que serão lançadas neste outono, conterão novos aplicativos criptográficos que ajudarão a limitar a disseminação de material retratando abuso sexual infantil, mantendo a privacidade do usuário.

O mais importante sobre o novo recurso é que ele verifica as imagens no dispositivo antes de fazer o backup para o iCloud. Portanto, a digitalização não ocorre antes de a imagem ser carregada para o iCloud. Durante anos, a Apple usou sistemas hash para identificar imagens de abuso infantil enviadas por e-mail. Recursos semelhantes são usados ​​pelo Gmail e outros serviços de e-mail baseados na nuvem. O recurso anunciado hoje aplicará a mesma digitalização às imagens personalizadas armazenadas no iCloud, mesmo que não sejam enviadas a outros usuários.

A Apple disse que não terá acesso a imagens que não contenham materiais proibidos. Além disso, o risco de o sistema sinalizar por engano uma conta como contendo material impróprio é extremamente baixo. Para eliminar completamente os erros, os especialistas da Apple verificarão manualmente todos os relatórios do sistema. Os usuários não poderão acessar o banco de dados de imagens contendo cenas de abuso infantil e não poderão determinar quais imagens foram sinalizadas pelo sistema.

Theverge.com

A Apple encomendou uma avaliação técnica do sistema a três criptógrafos independentes que o consideraram matematicamente extremamente confiável. Os especialistas observam que esse sistema aumentará significativamente a probabilidade de que pessoas que possuem ou vendem fotos e vídeos proibidos sejam capturadas. Além disso, a precisão do sistema torna quase impossível marcar imagens que não contenham material ilegal.

Junto com as novas medidas no iCloud Photos, a Apple adicionou dois sistemas adicionais para proteger os proprietários mais jovens do iPhone de intrusos. O aplicativo Mensagens já verifica as imagens anexadas em busca de contas de crianças para detectar conteúdo potencialmente explícito. Uma vez detectado, o conteúdo fica embaçado e um aviso aparece. Além disso, os pais serão notificados se uma criança receber ou enviar uma imagem explícita.

Outro sistema diz respeito ao Siri. O assistente de voz explicará aos usuários que encontrar conteúdo contendo cenas de abuso infantil pode ser problemático e também fornecerá links para recursos que fornecem assistência na eliminação de interesses prejudiciais.

avalanche

Postagens recentes

NASA convida a todos para ajudar na busca de exoplanetas: se você não tem seu próprio telescópio, basta um smartphone

A NASA anunciou o acesso gratuito para todos ao programa Exoplanet Watch (“Observação de exoplanetas”).…

9 horas atrás

Fabricante de carros elétricos Rivian perde vários executivos seniores

No início de janeiro, soube-se que a jovem montadora americana Rivian produziu 24.337 veículos elétricos…

9 horas atrás