Autoridades dos EUA iniciam investigação sobre segurança de chatbots de IA para crianças: Google, Meta, OpenAI e xAI na mira

A Comissão Federal de Comércio dos EUA (FTC) iniciou investigações sobre sete grandes empresas de tecnologia, incluindo Alphabet, Meta✴, OpenAI, xAI e Snap, para determinar se sua inteligência artificial (IA) pode impactar negativamente crianças e adolescentes. O regulador emitiu ordens exigindo que as empresas forneçam informações detalhadas sobre as medidas de segurança implementadas para seus chatbots, capazes de simular conversas humanas e relacionamentos interpessoais.

Fonte da imagem: Emiliano Vittoriosi/Unsplash

O regulador emitiu ordens às empresas exigindo que divulguem detalhes sobre as medidas de segurança implementadas para chatbots que simulam a comunicação humana e as relações interpessoais. Em particular, a FTC está interessada em como as empresas avaliam os riscos associados a companheiros de IA, como monetizam o engajamento do usuário, desenvolvem e aprovam personagens virtuais, usam ou compartilham dados pessoais e quais controles e mecanismos de mitigação implementam.

O presidente da FTC, Andrew Ferguson, enfatizou que a proteção de crianças online continua sendo uma prioridade fundamental para a agência, juntamente com o apoio à inovação em setores críticos da economia.

As empresas responderam de diferentes maneiras. A Meta✴ se recusou a comentar com a CNBC, enquanto a Alphabet, a Snap e a xAI ainda não responderam aos pedidos de comentário. Um porta-voz da OpenAI disse à CNBC que a prioridade da empresa é garantir que o ChatGPT seja útil e seguro para todos os usuários, especialmente os jovens, e que a OpenAI está aberta a trabalhar com o regulador. A lista de empresas sob análise também inclui a Character Technologies (criadora do chatbot Character.ai) e o Instagram da Meta✴.

A crescente atenção da FTC a este tópico se deve a incidentes recentes. Por exemplo, após uma investigação da Reuters, o senador Josh Hawley iniciou uma investigação sobre a Meta✴: o relatório mostrou que seus chatbots poderiam ter conversas perigosas com crianças. Em resposta, a Meta✴ endureceu temporariamente as regras para sua IA, proibindo discussões relacionadas a suicídio, automutilação e transtornos alimentares, além de limitar diálogos “sensíveis”.A OpenAI está tomando medidas semelhantes: a empresa anunciou uma revisão do ChatGPT após um processo movido por uma família que acusa o chatbot de envolvimento indireto na morte de um adolescente.

admin

Postagens recentes

Foram revelados detalhes sobre os próximos processadores da Intel: Nova Lake, Razor Lake, Titan Lake e Moon Lake, que serão lançados antes de 2028.

A Intel planeja apresentar seus processadores Nova Lake no segundo semestre deste ano. Embora muito…

30 minutos atrás

Na China, o acesso a Claude foi oferecido com um desconto de 90%; os dados coletados foram usados ​​para desenvolver modelos de IA.

Um serviço proxy do mercado cinza na China revende o acesso aos modelos de IA…

54 minutos atrás

Sob a liderança de Lip-Bu Tan, a Intel nunca conseguiu se livrar de seus problemas centrais.

O impressionante desempenho das ações da Intel este ano pode dar a impressão de que…

7 horas atrás

Drones e roteadores cuja importação para os EUA é proibida poderão receber atualizações de segurança até janeiro de 2029.

Em determinado momento, as autoridades americanas decidiram que drones e roteadores de internet importados da…

7 horas atrás

Heróis de Poder e Magia: Era Antiga – Uma Época de Auge

Intel Core i3-10300 3.7 GHz / AMD Ryzen 3 3100 3.6 GHz, 8 GB de…

8 horas atrás

A guerra no Oriente Médio agravou a escassez de materiais de construção e componentes para centros de dados.

O conflito em curso no Oriente Médio, devido ao fechamento do Estreito de Ormuz, exacerbou…

8 horas atrás