A Comissão Federal de Comércio dos EUA (FTC) iniciou investigações sobre sete grandes empresas de tecnologia, incluindo Alphabet, Meta✴, OpenAI, xAI e Snap, para determinar se sua inteligência artificial (IA) pode impactar negativamente crianças e adolescentes. O regulador emitiu ordens exigindo que as empresas forneçam informações detalhadas sobre as medidas de segurança implementadas para seus chatbots, capazes de simular conversas humanas e relacionamentos interpessoais.
Fonte da imagem: Emiliano Vittoriosi/Unsplash
O regulador emitiu ordens às empresas exigindo que divulguem detalhes sobre as medidas de segurança implementadas para chatbots que simulam a comunicação humana e as relações interpessoais. Em particular, a FTC está interessada em como as empresas avaliam os riscos associados a companheiros de IA, como monetizam o engajamento do usuário, desenvolvem e aprovam personagens virtuais, usam ou compartilham dados pessoais e quais controles e mecanismos de mitigação implementam.
O presidente da FTC, Andrew Ferguson, enfatizou que a proteção de crianças online continua sendo uma prioridade fundamental para a agência, juntamente com o apoio à inovação em setores críticos da economia.
As empresas responderam de diferentes maneiras. A Meta✴ se recusou a comentar com a CNBC, enquanto a Alphabet, a Snap e a xAI ainda não responderam aos pedidos de comentário. Um porta-voz da OpenAI disse à CNBC que a prioridade da empresa é garantir que o ChatGPT seja útil e seguro para todos os usuários, especialmente os jovens, e que a OpenAI está aberta a trabalhar com o regulador. A lista de empresas sob análise também inclui a Character Technologies (criadora do chatbot Character.ai) e o Instagram da Meta✴.
A crescente atenção da FTC a este tópico se deve a incidentes recentes. Por exemplo, após uma investigação da Reuters, o senador Josh Hawley iniciou uma investigação sobre a Meta✴: o relatório mostrou que seus chatbots poderiam ter conversas perigosas com crianças. Em resposta, a Meta✴ endureceu temporariamente as regras para sua IA, proibindo discussões relacionadas a suicídio, automutilação e transtornos alimentares, além de limitar diálogos “sensíveis”.A OpenAI está tomando medidas semelhantes: a empresa anunciou uma revisão do ChatGPT após um processo movido por uma família que acusa o chatbot de envolvimento indireto na morte de um adolescente.
Este mês, o CEO e fundador da Nvidia, Jensen Huang, apresentou os aceleradores de computação…
Confirmado há mais de cinco anos, o promissor MMO ambientado no universo de League of…
Há um ano, Donald Trump tomou posse como presidente dos EUA para um segundo mandato…
Foi descoberta uma vulnerabilidade na ferramenta de segurança Web Application Firewall (WAF) da Cloudflare que…
No sábado, 17 de janeiro de 2026, a China vivenciou um evento raro nos últimos…
Foi revelado ontem que a NASA ainda não conseguiu concluir a investigação sobre um incidente…