Autoridades dos EUA iniciam investigação sobre segurança de chatbots de IA para crianças: Google, Meta, OpenAI e xAI na mira

A Comissão Federal de Comércio dos EUA (FTC) iniciou investigações sobre sete grandes empresas de tecnologia, incluindo Alphabet, Meta✴, OpenAI, xAI e Snap, para determinar se sua inteligência artificial (IA) pode impactar negativamente crianças e adolescentes. O regulador emitiu ordens exigindo que as empresas forneçam informações detalhadas sobre as medidas de segurança implementadas para seus chatbots, capazes de simular conversas humanas e relacionamentos interpessoais.

Fonte da imagem: Emiliano Vittoriosi/Unsplash

O regulador emitiu ordens às empresas exigindo que divulguem detalhes sobre as medidas de segurança implementadas para chatbots que simulam a comunicação humana e as relações interpessoais. Em particular, a FTC está interessada em como as empresas avaliam os riscos associados a companheiros de IA, como monetizam o engajamento do usuário, desenvolvem e aprovam personagens virtuais, usam ou compartilham dados pessoais e quais controles e mecanismos de mitigação implementam.

O presidente da FTC, Andrew Ferguson, enfatizou que a proteção de crianças online continua sendo uma prioridade fundamental para a agência, juntamente com o apoio à inovação em setores críticos da economia.

As empresas responderam de diferentes maneiras. A Meta✴ se recusou a comentar com a CNBC, enquanto a Alphabet, a Snap e a xAI ainda não responderam aos pedidos de comentário. Um porta-voz da OpenAI disse à CNBC que a prioridade da empresa é garantir que o ChatGPT seja útil e seguro para todos os usuários, especialmente os jovens, e que a OpenAI está aberta a trabalhar com o regulador. A lista de empresas sob análise também inclui a Character Technologies (criadora do chatbot Character.ai) e o Instagram da Meta✴.

A crescente atenção da FTC a este tópico se deve a incidentes recentes. Por exemplo, após uma investigação da Reuters, o senador Josh Hawley iniciou uma investigação sobre a Meta✴: o relatório mostrou que seus chatbots poderiam ter conversas perigosas com crianças. Em resposta, a Meta✴ endureceu temporariamente as regras para sua IA, proibindo discussões relacionadas a suicídio, automutilação e transtornos alimentares, além de limitar diálogos “sensíveis”.A OpenAI está tomando medidas semelhantes: a empresa anunciou uma revisão do ChatGPT após um processo movido por uma família que acusa o chatbot de envolvimento indireto na morte de um adolescente.

admin

Postagens recentes

O Google trouxe de volta um recurso popular para o relógio padrão do Android: deslizar para desligar o alarme agora é coisa do passado.

Na semana passada, o aplicativo Google Clock foi atualizado para a versão 8.5. O desenvolvedor…

37 minutos atrás

O Yandex Maps agora oferece transmissões de geolocalização em tempo real.

O Yandex Maps adicionou a capacidade de compartilhar sua localização em tempo real, permitindo que…

47 minutos atrás

Equipamentos avançados de EUV (Visão Ultravioleta Contínua) começarão a ser testados em uma fábrica da Samsung no Texas em março.

A Samsung Electronics é uma empresa texana de longa data, mas suas principais operações estão…

47 minutos atrás

FP64 não é real: a AMD duvida da eficácia da emulação de computação científica nos Tensor Cores da NVIDIA.

Em vez de criar chips dedicados para computação FP64 por hardware, a NVIDIA está usando…

1 hora atrás

Os funcionários mais jovens estão mais preocupados com a concorrência da IA ​​do que os mais experientes.

Como já foi observado repetidamente, a implementação da inteligência artificial generativa no nível dos processos…

3 horas atrás

A OpenAI promete iniciar aplicações práticas de IA ainda este ano, com a receita anual da startup já ultrapassando os 20 bilhões de dólares.

A OpenAI, empresa americana criadora do ChatGPT, ainda é formalmente considerada uma startup, razão pela…

3 horas atrás