A conexão emocional entre humanos e chatbots com tecnologia de IA, incluindo o ChatGPT, tornou-se cada vez mais urgente nos últimos meses. O problema da Meta✴ era mais profundo: ela permitia que seus chatbots flertassem com menores, espalhassem informações falsas e dessem respostas depreciativas a menores, segundo apurou a Reuters.

Fonte da imagem: Igor Omilaev / unsplash.com

A Meta✴ tinha regras de comportamento para chatbots que permitiam que menores se envolvessem em diálogos românticos, de acordo com um documento interno da empresa, revisado pela Reuters e confirmado como autêntico pela própria Meta✴. O documento descreve os padrões de comportamento para a assistente de IA da Meta✴ e outros chatbots nas plataformas Facebook✴, WhatsApp e Instagram✴. Os padrões foram aprovados pelos departamentos jurídico, de políticas públicas, de engenharia e de ética da Meta✴.

Vários veículos de comunicação noticiaram que os chatbots, às vezes sensíveis, da Meta✴ conseguiam interagir com menores; a Reuters descobriu que a empresa, ao desenvolver esses personagens de IA, buscava lucrar com o que o CEO da Meta✴, Mark Zuckerberg, chamou de “epidemia de solidão”. O documento de 200 páginas, intitulado “IA Generativa: Padrões de Risco de Conteúdo”, contém exemplos de consultas e respostas aceitáveis e inaceitáveis, com explicações. O documento, em particular, permite “envolver um menor em conversas românticas e sensuais”, mas proíbe “descrever ações íntimas a um menor durante jogos de RPG”.

«”Nossa política não permite comportamento provocativo com crianças. Comentários e anotações errôneos e inapropriados foram adicionados ao documento, que não deveriam estar lá, e já foram removidos”, disse Andy Stone, porta-voz da Meta✴, ao TechCrunch. A empresa removeu as regulamentações relevantes, ressaltou, e agora os chatbots estão proibidos de ter conversas românticas ou de flerte com menores; na verdade, crianças com 13 anos ou mais estão proibidas de se comunicar com chatbots de IA.

Outro ponto questionável é que a proibição geral de chatbots que usam discurso de ódio permitiu exceções e permitiu que eles fizessem “declarações que humilham as pessoas com base em suas características legalmente protegidas”. Por exemplo, a regulamentação permitiu explicitamente que a IA alegasse a superioridade intelectual de representantes de uma raça sobre representantes de outra. Os chatbots foram autorizados a fazer declarações falsas se a natureza falsa de tais declarações fosse amplamente reconhecida. Ao consultar sobre tópicos médicos, jurídicos e financeiros, a IA teve que fazer isenções de responsabilidade, como “Eu recomendo”. Gerar imagens de celebridades em nudez óbvia era proibido, mas opções eram permitidas onde a nudez era coberta por partes do corpo ou objetos. Era possível criar imagens de pessoas lutando, desde que tais imagens não contivessem sangue ou morte.

Anteriormente, soube-se que a Meta✴ pretende expandir o conjunto de funções dos chatbots e dar-lhes a capacidade de iniciar a comunicação com os usuários de forma independente, bem como continuar diálogos anteriores. O estudo mostrou que 72% dos menores nos Estados Unidos têm experiência em se comunicar com companheiros de IA, e há uma opinião de que este é um indicador perigoso: crianças e adolescentes são menos desenvolvidos emocionalmente do que os adultos, então menores tendem a criar um vínculo muito próximo com chatbots e evitar contatos sociais no mundo real.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *