A Apple confirma que estudará fotos em dispositivos de usuários para proteger as crianças

Em um briefing na quinta-feira, a Apple confirmou rumores anteriores de planos para lançar uma nova tecnologia em iOS, macOS, watchOS e iMessage que detectará imagens de abuso infantil em dispositivos de usuários.

Theverge.com

As últimas versões do iOS e iPadOS, que serão lançadas neste outono, conterão novos aplicativos criptográficos que ajudarão a limitar a disseminação de material retratando abuso sexual infantil, mantendo a privacidade do usuário.

O mais importante sobre o novo recurso é que ele verifica as imagens no dispositivo antes de fazer o backup para o iCloud. Portanto, a digitalização não ocorre antes de a imagem ser carregada para o iCloud. Durante anos, a Apple usou sistemas hash para identificar imagens de abuso infantil enviadas por e-mail. Recursos semelhantes são usados ​​pelo Gmail e outros serviços de e-mail baseados na nuvem. O recurso anunciado hoje aplicará a mesma digitalização às imagens personalizadas armazenadas no iCloud, mesmo que não sejam enviadas a outros usuários.

A Apple disse que não terá acesso a imagens que não contenham materiais proibidos. Além disso, o risco de o sistema sinalizar por engano uma conta como contendo material impróprio é extremamente baixo. Para eliminar completamente os erros, os especialistas da Apple verificarão manualmente todos os relatórios do sistema. Os usuários não poderão acessar o banco de dados de imagens contendo cenas de abuso infantil e não poderão determinar quais imagens foram sinalizadas pelo sistema.

Theverge.com

A Apple encomendou uma avaliação técnica do sistema a três criptógrafos independentes que o consideraram matematicamente extremamente confiável. Os especialistas observam que esse sistema aumentará significativamente a probabilidade de que pessoas que possuem ou vendem fotos e vídeos proibidos sejam capturadas. Além disso, a precisão do sistema torna quase impossível marcar imagens que não contenham material ilegal.

Junto com as novas medidas no iCloud Photos, a Apple adicionou dois sistemas adicionais para proteger os proprietários mais jovens do iPhone de intrusos. O aplicativo Mensagens já verifica as imagens anexadas em busca de contas de crianças para detectar conteúdo potencialmente explícito. Uma vez detectado, o conteúdo fica embaçado e um aviso aparece. Além disso, os pais serão notificados se uma criança receber ou enviar uma imagem explícita.

Outro sistema diz respeito ao Siri. O assistente de voz explicará aos usuários que encontrar conteúdo contendo cenas de abuso infantil pode ser problemático e também fornecerá links para recursos que fornecem assistência na eliminação de interesses prejudiciais.

avalanche

Postagens recentes

Winnie’s Hole, o jogo assustador sobre a transformação do Ursinho Pooh em um monstro grotesco, ganhou um novo trailer e uma data de lançamento para o Acesso Antecipado no Steam.

Os desenvolvedores do estúdio australiano Twice Different (Ring of Pain) anunciaram a data de lançamento…

35 minutos atrás

O DeepSeek aprendeu a treinar modelos de linguagem de IA sem levar em consideração as limitações de memória.

Como observado recentemente, a largura de banda de memória usada na infraestrutura de IA está…

35 minutos atrás

Os modelos de IA estão sendo estudados como organismos vivos, mas a matemática está piorando.

O problema com os modelos de linguagem de inteligência artificial modernos em larga escala é…

46 minutos atrás

Um entusiasta recriou completamente a interface de usuário do Windows 8 no Linux.

Os usuários do Windows começaram a considerar a mudança para um sistema operacional alternativo em…

1 hora atrás

O Veo 3.1, gerador de vídeos com IA do Google, agora consegue criar vídeos para o TikTok e outras plataformas verticais.

O Google atualizou o recurso "Ingredientes para Vídeo" do modelo de geração de vídeos com…

1 hora atrás

A Rockstar lançou uma loja de mods paga para GTA V e Red Dead Redemption 2.

Os jogadores há muito suspeitavam que a aquisição da equipe de modding Cfx.re pela Rockstar…

2 horas atrás