A Apple confirma que estudará fotos em dispositivos de usuários para proteger as crianças

Em um briefing na quinta-feira, a Apple confirmou rumores anteriores de planos para lançar uma nova tecnologia em iOS, macOS, watchOS e iMessage que detectará imagens de abuso infantil em dispositivos de usuários.

Theverge.com

As últimas versões do iOS e iPadOS, que serão lançadas neste outono, conterão novos aplicativos criptográficos que ajudarão a limitar a disseminação de material retratando abuso sexual infantil, mantendo a privacidade do usuário.

O mais importante sobre o novo recurso é que ele verifica as imagens no dispositivo antes de fazer o backup para o iCloud. Portanto, a digitalização não ocorre antes de a imagem ser carregada para o iCloud. Durante anos, a Apple usou sistemas hash para identificar imagens de abuso infantil enviadas por e-mail. Recursos semelhantes são usados ​​pelo Gmail e outros serviços de e-mail baseados na nuvem. O recurso anunciado hoje aplicará a mesma digitalização às imagens personalizadas armazenadas no iCloud, mesmo que não sejam enviadas a outros usuários.

A Apple disse que não terá acesso a imagens que não contenham materiais proibidos. Além disso, o risco de o sistema sinalizar por engano uma conta como contendo material impróprio é extremamente baixo. Para eliminar completamente os erros, os especialistas da Apple verificarão manualmente todos os relatórios do sistema. Os usuários não poderão acessar o banco de dados de imagens contendo cenas de abuso infantil e não poderão determinar quais imagens foram sinalizadas pelo sistema.

Theverge.com

A Apple encomendou uma avaliação técnica do sistema a três criptógrafos independentes que o consideraram matematicamente extremamente confiável. Os especialistas observam que esse sistema aumentará significativamente a probabilidade de que pessoas que possuem ou vendem fotos e vídeos proibidos sejam capturadas. Além disso, a precisão do sistema torna quase impossível marcar imagens que não contenham material ilegal.

Junto com as novas medidas no iCloud Photos, a Apple adicionou dois sistemas adicionais para proteger os proprietários mais jovens do iPhone de intrusos. O aplicativo Mensagens já verifica as imagens anexadas em busca de contas de crianças para detectar conteúdo potencialmente explícito. Uma vez detectado, o conteúdo fica embaçado e um aviso aparece. Além disso, os pais serão notificados se uma criança receber ou enviar uma imagem explícita.

Outro sistema diz respeito ao Siri. O assistente de voz explicará aos usuários que encontrar conteúdo contendo cenas de abuso infantil pode ser problemático e também fornecerá links para recursos que fornecem assistência na eliminação de interesses prejudiciais.

avalanche

Postagens recentes

A escassez abriu caminho para que memórias chinesas entrassem nos laptops da HP, Dell, Acer e Asus.

Historicamente, o mercado de chips de memória tem sido dominado pelas empresas sul-coreanas Samsung e…

24 minutos atrás

A Arm decepcionou os investidores com uma queda na receita de smartphones.

No cenário atual, o boom da IA ​​está impactando os negócios de algumas empresas tanto…

3 horas atrás

A TSMC iniciará a produção de chips de 3nm no Japão, e as autoridades do país prometem aumentar os subsídios.

Até recentemente, acreditava-se que a produção de chips de 2 nm no Japão seria feita…

4 horas atrás

A OpenAI criticou a Anthropic por deturpar a monetização do ChatGPT.

O CEO da OpenAI, Sam Altman, criticou o anúncio da Anthropic após assisti-lo. Em sua…

4 horas atrás

A Amazon utilizará inteligência artificial para acelerar e reduzir o custo da produção cinematográfica.

A Amazon planeja usar inteligência artificial (IA) na produção cinematográfica para reduzir o tempo de…

5 horas atrás