A Apple confirma que estudará fotos em dispositivos de usuários para proteger as crianças

Em um briefing na quinta-feira, a Apple confirmou rumores anteriores de planos para lançar uma nova tecnologia em iOS, macOS, watchOS e iMessage que detectará imagens de abuso infantil em dispositivos de usuários.

Theverge.com

As últimas versões do iOS e iPadOS, que serão lançadas neste outono, conterão novos aplicativos criptográficos que ajudarão a limitar a disseminação de material retratando abuso sexual infantil, mantendo a privacidade do usuário.

O mais importante sobre o novo recurso é que ele verifica as imagens no dispositivo antes de fazer o backup para o iCloud. Portanto, a digitalização não ocorre antes de a imagem ser carregada para o iCloud. Durante anos, a Apple usou sistemas hash para identificar imagens de abuso infantil enviadas por e-mail. Recursos semelhantes são usados ​​pelo Gmail e outros serviços de e-mail baseados na nuvem. O recurso anunciado hoje aplicará a mesma digitalização às imagens personalizadas armazenadas no iCloud, mesmo que não sejam enviadas a outros usuários.

A Apple disse que não terá acesso a imagens que não contenham materiais proibidos. Além disso, o risco de o sistema sinalizar por engano uma conta como contendo material impróprio é extremamente baixo. Para eliminar completamente os erros, os especialistas da Apple verificarão manualmente todos os relatórios do sistema. Os usuários não poderão acessar o banco de dados de imagens contendo cenas de abuso infantil e não poderão determinar quais imagens foram sinalizadas pelo sistema.

Theverge.com

A Apple encomendou uma avaliação técnica do sistema a três criptógrafos independentes que o consideraram matematicamente extremamente confiável. Os especialistas observam que esse sistema aumentará significativamente a probabilidade de que pessoas que possuem ou vendem fotos e vídeos proibidos sejam capturadas. Além disso, a precisão do sistema torna quase impossível marcar imagens que não contenham material ilegal.

Junto com as novas medidas no iCloud Photos, a Apple adicionou dois sistemas adicionais para proteger os proprietários mais jovens do iPhone de intrusos. O aplicativo Mensagens já verifica as imagens anexadas em busca de contas de crianças para detectar conteúdo potencialmente explícito. Uma vez detectado, o conteúdo fica embaçado e um aviso aparece. Além disso, os pais serão notificados se uma criança receber ou enviar uma imagem explícita.

Outro sistema diz respeito ao Siri. O assistente de voz explicará aos usuários que encontrar conteúdo contendo cenas de abuso infantil pode ser problemático e também fornecerá links para recursos que fornecem assistência na eliminação de interesses prejudiciais.

avalanche

Postagens recentes

“Eu nem imaginava que isso fosse possível”: modder assume a tarefa de portar The Elder Scrolls III: Morrowind para Elden Ring

Enquanto alguns fãs estão recriando The Elder Scrolls III: Morrowind no motor Skyrim, outros estão…

9 horas atrás

Kojima revelará segredo sobre jogos futuros em homenagem ao 10º aniversário da Kojima Productions

O estúdio japonês Kojima Productions, fundado no final de 2015 pelo renomado designer de jogos…

11 horas atrás

Calendário de Lançamentos – 1 a 7 de setembro: Hollow Knight: Silksong, Cronos: The New Dawn e Metal Eden

Análise do modo ranqueado de Warface: fácil de pegar o jeito, difícil de largar

12 horas atrás

CD Projekt Red intriga fãs de Cyberpunk 2077 com teaser misterioso do presidente dos EUA

Embora o suporte de conteúdo para o RPG de ação cyberpunk em primeira pessoa Cyberpunk…

12 horas atrás

A seleção de horas e minutos do despertador do iPhone não é um ciclo, mas uma longa lista com um final inesperado

Parece difícil imaginar algo mais elementar do ponto de vista do usuário do que escolher…

12 horas atrás