Especialistas em saúde mental desenvolveram um sistema que inclui duas dezenas de padrões para avaliar a eficácia com que as plataformas de mídia social protegem os jovens usuários, segundo reportagem do Washington Post.

Fonte da imagem: Marie-Michèle Bouchard / unsplash.com
Três empresas líderes que operam redes sociais populares já concordaram em se submeter a avaliações independentes: Meta✴ (proprietária do Facebook✴ e Instagram✴), TikTok e Snap. Os critérios de avaliação incluirão recursos que exigem que os usuários façam pausas, a presença de rolagem infinita e muitos outros fatores relacionados a políticas de segurança e compromissos de transparência. Uma onda de processos judiciais movidos por agências governamentais e indivíduos privados varreu diversos países, alegando que os desenvolvedores de redes sociais estão projetando interfaces deliberadamente para tornar suas plataformas viciantes. Alguns especialistas acreditam que será difícil para os demandantes provarem em juízo uma ligação entre o uso de redes sociais e problemas na adolescência. Os legisladores também estão divididos.
Padrões voluntários representam uma abordagem alternativa. Classificações e avaliações não substituirão a ação legislativa, mas ajudarão adolescentes e seus pais a tomar decisões sobre como interagir com determinados aplicativos. Não há consenso científico sobre se as redes sociais são prejudiciais para crianças e adolescentes em geral. Alguns estudos mostram que os usuários mais ativos das redes sociais apresentam pior saúde mental, enquanto outros sugerem que jovens que não usam a internet também podem enfrentar dificuldades. Agora, até mesmo os próprios adolescentes começaram a expressar preocupação com o tempo que passam nas redes sociais. As jovens, em particular, notaram que as redes sociais afetam sua autoestima, seus padrões de sono e sua saúde mental em geral.
Antígona, Chefe de Segurança da Meta✴Antigone Davis afirmou que os padrões, desenvolvidos com a contribuição de defensores dos direitos humanos, “fornecerão ao público uma maneira significativa de avaliar as proteções das plataformas e responsabilizar as empresas”. Representantes do TikTok e do Snapchat expressaram comentários positivos sobre a iniciativa. De forma semelhante à classificação etária de filmes em Hollywood, as operadoras de mídia social compartilharão suas políticas internas com especialistas externos. A eficácia será avaliada com base em duas dezenas de critérios, incluindo políticas da plataforma, design do aplicativo, supervisão interna, treinamento do usuário e conteúdo. Muitos dos padrões visam proteger os usuários de conteúdo que retrata suicídio e automutilação. O tempo gasto na plataforma e a disponibilidade de maneiras de reduzi-lo serão aspectos importantes.