A Meta✴ ajustou a metodologia de treinamento do chatbot de IA Meta✴, com foco na segurança de adolescentes. As mudanças foram implementadas após publicações na mídia sobre a falta de mecanismos na rede neural para impedir discussões com menores sobre tópicos inapropriados relacionados a automutilação, suicídio, transtornos alimentares, etc.
Fonte da imagem: Chad Madden/unsplash.com
No início deste mês, foi revelado um documento interno da Meta✴ que permitia que o chatbot da empresa tivesse conversas “sexuais” com usuários menores de idade. Comentando a publicação, a Meta✴ afirmou que o texto era “errôneo e inconsistente com as regras” e havia sido removido.
O Washington Post publicou recentemente os resultados de um estudo que descobriu que a Meta✴ AI tem a capacidade de “levar contas de adolescentes ao suicídio, à automutilação e a distúrbios alimentares”.
Stephanie Otway, porta-voz da Meta✴, disse ao Engadget que a empresa está reforçando as salvaguardas para impedir que chatbots discutam esses tópicos com menores. Segundo ela, “salvaguardas” foram incorporadas ao treinamento de IA, e a empresa as vem fortalecendo à medida que a comunidade cresce e a tecnologia evolui. “À medida que continuamos a aprimorar nossos sistemas, estamos adicionando novas ‘salvaguardas’ como precaução adicional: treinando nossa IA para não se envolver com adolescentes sobre esses tópicos e direcionando-os a recursos especializados, e limitando o acesso dos adolescentes a um grupo específico de personagens da IA”, disse Otway.
Além de atualizar a metodologia de treinamento da rede neural, a empresa também limitará o acesso dos adolescentes a certos personagens de IA que podem se envolver em conversas inapropriadas e oferecerá a eles companheiros virtuais que promovam criatividade e educação.
Otway afirmou que as proteções continuarão a melhorar. “Essas atualizações já estão em desenvolvimento e continuaremos a adaptar nossa abordagem para garantir que os adolescentes tenham uma experiência segura e adequada à sua idade com a IA”, disse ela, acrescentando que as novas medidas serão implementadas nas próximas semanas e em todos os países de língua inglesa.
Parlamentares e outras autoridades também levantaram questões sobre as políticas de IA da Meta✴. O senador Josh Hawley disse recentemente à empresa que planeja investigar suas práticas de IA. O procurador-geral do Texas, Ken Paxton, também afirmou que planeja investigar a Meta✴ por supostamente enganar crianças sobre problemas de saúde mental com seu chatbot.
Lançado em 2017, Metroidvania Hollow Knight, do estúdio australiano Team Cherry, continua quebrando recordes de…
O ambicioso jogo de tiro militar Battlefield 6, da Electronic Arts e da Battlefield Studios,…
Um dos maiores benefícios de assinar o YouTube Premium por US$ 14 é a possibilidade…
A editora Sony Interactive Entertainment anunciou planos para uma edição especial do programa State of…
Os chatbots de IA têm políticas que protegem contra solicitações provocativas de informações restritas, mas…
Placas de vídeo Nvidia GeForce mais antigas que suportam UEFI podem não funcionar corretamente em…