Nas próximas semanas, o Instagram começará a alertar os pais caso seus filhos adolescentes pesquisem repetidamente termos relacionados a suicídio e automutilação em um curto período de tempo, anunciou a empresa nesta quinta-feira. Os alertas estarão disponíveis para os pais cadastrados no sistema de controle parental do Instagram.

Fonte da imagem: ROBIN WORRALL/unsplash.com
A equipe da rede social afirmou que, embora a plataforma bloqueie buscas por conteúdo relacionado à promoção do suicídio e automutilação, o lançamento de alertas garantirá que os pais estejam cientes do estado de espírito de seus filhos adolescentes, para que possam oferecer apoio oportuno.
Consultas de busca que incluam frases que incentivem o suicídio ou a automutilação, indicando que um adolescente pode estar em risco de automutilação, e termos como “suicídio” ou “automutilação” serão monitoradas.
A rede social afirmou que os pais receberão um alerta por e-mail, SMS ou WhatsApp, dependendo das informações de contato fornecidas, bem como uma notificação no aplicativo. A notificação também incluirá recursos que podem ajudar os pais a se comunicarem com seus filhos adolescentes.
A Meta✴ e outras grandes empresas de tecnologia estão atualmente enfrentando uma série de processos judiciais alegando danos a adolescentes, exigindo que sejam responsabilizadas. Esta semana, o CEO do Instagram✴, Adam Mosseri, testemunhou no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia em um caso em andamento sobre vício em redes sociais, referente ao atraso na implementação de recursos básicos de segurança, incluindo um filtro de nudez para mensagens privadas para adolescentes.
Os alertas parentais começarão a ser implementados na próxima semana nos EUA, Reino Unido, Austrália e Canadá, com outras regiões a seguir ainda este ano. A empresa afirmou que evitará enviar tais notificações.desnecessariamente, pois o uso excessivo pode reduzir sua eficácia.
No futuro, o Instagram planeja enviar notificações aos pais quando um adolescente tentar dialogar com um aplicativo de IA sobre suicídio ou automutilação.