A Meta✴pode ter impedido pesquisas relacionadas à segurança infantil. Quatro funcionários da empresa — dois atuais e dois ex-funcionários — afirmaram que, desde 2021, a Meta✴vem restringindo pesquisas sobre tópicos sensíveis, relata o TechCrunch.

Fonte da imagem: Meta/YouTube
Os funcionários em questão entregaram documentos internos da empresa ao Congresso dos EUA, que afirmam que, em 2021, a Meta✴ lançou uma política que criava diversas restrições ao trabalho de funcionários que pesquisam questões de política, identidade racial e de gênero, bullying e proteção à criança. Ao mesmo tempo, estudos semelhantes da própria Meta✴ foram divulgados, afirmando que o Instagram✴ pode afetar negativamente a saúde de adolescentes.
Depois disso, para se proteger contra a repetição de tais escândalos, a gerência da Meta✴ começou a recomendar aos seus pesquisadores várias maneiras de “redução de riscos”. Basicamente, dois métodos foram propostos: envolver advogados no trabalho para usar o sigilo profissional e nunca usar termos como “ilegal” ou “incorreto” ao descrever os resultados. Tudo isso deveria impedir o vazamento de informações ou reduzir o risco de sua discussão.
O ex-pesquisador da Meta✴, Jason Sattizahn, especialista em realidade virtual, disse que o chefe de seu departamento o forçou a apagar a gravação de uma entrevista na qual relatava o assédio a um menino de 10 anos na plataforma Horizon Worlds VR. A empresa tentou justificar isso citando práticas internacionais, segundo as quais informações obtidas de crianças menores de 13 anos sem o consentimento dos pais ou responsáveis devem ser apagadas. No entanto, funcionários da Meta✴ observam que a empresa vai além e não simplesmente apaga informações, mas nem sequer permite a discussão sobre os possíveis problemas e perigos que espreitam crianças menores de 13 anos em plataformas de realidade virtual.
Esta está longe de ser a primeira vez.processo contra a Meta✴ por questões de bem-estar de menores. Em fevereiro, a empresa foi processada por sua ex-funcionária Kelly Stonelake, que apontou casos de discriminação racial contra menores que usavam o Horizon Worlds. “Em um teste, usuários com avatares negros foram vítimas de assédio nos primeiros 34 segundos após o login na plataforma”, observou Stonelake.
As soluções de IA da empresa também foram alvo de críticas. Em agosto, a mídia noticiou que os chatbots da Meta✴ conseguiam se envolver em conversas românticas com crianças.
