A Meta✴ ajustou a metodologia de treinamento do chatbot de IA Meta✴, com foco na segurança de adolescentes. As mudanças foram implementadas após publicações na mídia sobre a falta de mecanismos na rede neural para impedir discussões com menores sobre tópicos inapropriados relacionados a automutilação, suicídio, transtornos alimentares, etc.







Fonte da imagem: Chad Madden/unsplash.com
No início deste mês, foi revelado um documento interno da Meta✴ que permitia que o chatbot da empresa tivesse conversas “sexuais” com usuários menores de idade. Comentando a publicação, a Meta✴ afirmou que o texto era “errôneo e inconsistente com as regras” e havia sido removido.
O Washington Post publicou recentemente os resultados de um estudo que descobriu que a Meta✴ AI tem a capacidade de “levar contas de adolescentes ao suicídio, à automutilação e a distúrbios alimentares”.
Stephanie Otway, porta-voz da Meta✴, disse ao Engadget que a empresa está reforçando as salvaguardas para impedir que chatbots discutam esses tópicos com menores. Segundo ela, “salvaguardas” foram incorporadas ao treinamento de IA, e a empresa as vem fortalecendo à medida que a comunidade cresce e a tecnologia evolui. “À medida que continuamos a aprimorar nossos sistemas, estamos adicionando novas ‘salvaguardas’ como precaução adicional: treinando nossa IA para não se envolver com adolescentes sobre esses tópicos e direcionando-os a recursos especializados, e limitando o acesso dos adolescentes a um grupo específico de personagens da IA”, disse Otway.
Além de atualizar a metodologia de treinamento da rede neural, a empresa também limitará o acesso dos adolescentes a certos personagens de IA que podem se envolver em conversas inapropriadas e oferecerá a eles companheiros virtuais que promovam criatividade e educação.
Otway afirmou que as proteções continuarão a melhorar. “Essas atualizações já estão em desenvolvimento e continuaremos a adaptar nossa abordagem para garantir que os adolescentes tenham uma experiência segura e adequada à sua idade com a IA”, disse ela, acrescentando que as novas medidas serão implementadas nas próximas semanas e em todos os países de língua inglesa.
Parlamentares e outras autoridades também levantaram questões sobre as políticas de IA da Meta✴. O senador Josh Hawley disse recentemente à empresa que planeja investigar suas práticas de IA. O procurador-geral do Texas, Ken Paxton, também afirmou que planeja investigar a Meta✴ por supostamente enganar crianças sobre problemas de saúde mental com seu chatbot.
