Categorias: Redes sociais

O Instagram e o TikTok concordaram voluntariamente em passar por uma avaliação de segurança para adolescentes.

Especialistas em saúde mental desenvolveram um sistema que inclui duas dezenas de padrões para avaliar a eficácia com que as plataformas de mídia social protegem os jovens usuários, segundo reportagem do Washington Post.

Fonte da imagem: Marie-Michèle Bouchard / unsplash.com

Três empresas líderes que operam redes sociais populares já concordaram em se submeter a avaliações independentes: Meta✴ (proprietária do Facebook✴ e Instagram✴), TikTok e Snap. Os critérios de avaliação incluirão recursos que exigem que os usuários façam pausas, a presença de rolagem infinita e muitos outros fatores relacionados a políticas de segurança e compromissos de transparência. Uma onda de processos judiciais movidos por agências governamentais e indivíduos privados varreu diversos países, alegando que os desenvolvedores de redes sociais estão projetando interfaces deliberadamente para tornar suas plataformas viciantes. Alguns especialistas acreditam que será difícil para os demandantes provarem em juízo uma ligação entre o uso de redes sociais e problemas na adolescência. Os legisladores também estão divididos.

Padrões voluntários representam uma abordagem alternativa. Classificações e avaliações não substituirão a ação legislativa, mas ajudarão adolescentes e seus pais a tomar decisões sobre como interagir com determinados aplicativos. Não há consenso científico sobre se as redes sociais são prejudiciais para crianças e adolescentes em geral. Alguns estudos mostram que os usuários mais ativos das redes sociais apresentam pior saúde mental, enquanto outros sugerem que jovens que não usam a internet também podem enfrentar dificuldades. Agora, até mesmo os próprios adolescentes começaram a expressar preocupação com o tempo que passam nas redes sociais. As jovens, em particular, notaram que as redes sociais afetam sua autoestima, seus padrões de sono e sua saúde mental em geral.

Antígona, Chefe de Segurança da Meta✴Antigone Davis afirmou que os padrões, desenvolvidos com a contribuição de defensores dos direitos humanos, “fornecerão ao público uma maneira significativa de avaliar as proteções das plataformas e responsabilizar as empresas”. Representantes do TikTok e do Snapchat expressaram comentários positivos sobre a iniciativa. De forma semelhante à classificação etária de filmes em Hollywood, as operadoras de mídia social compartilharão suas políticas internas com especialistas externos. A eficácia será avaliada com base em duas dezenas de critérios, incluindo políticas da plataforma, design do aplicativo, supervisão interna, treinamento do usuário e conteúdo. Muitos dos padrões visam proteger os usuários de conteúdo que retrata suicídio e automutilação. O tempo gasto na plataforma e a disponibilidade de maneiras de reduzi-lo serão aspectos importantes.

admin

Postagens recentes

Os gastos trimestrais com infraestrutura em nuvem se aproximam de US$ 120 bilhões.

O Synergy Research Group divulgou um resumo de seu estudo sobre o mercado global de…

29 minutos atrás

Vídeo: GeForce RTX 5090 dá um show de fogo logo no primeiro lançamento – e não está coberta pela garantia.

Um usuário da plataforma de mídia social chinesa Bilibili publicou um vídeo de uma placa…

42 minutos atrás

A inteligência artificial derrubou os preços das ações do setor financeiro nos EUA.

As ações de empresas de gestão de ativos dos EUA despencaram após o lançamento de…

56 minutos atrás