A pesquisadora da OpenAI, Zoë Hitzig, pediu demissão da empresa no mesmo dia em que começaram os testes de anúncios no ChatGPT. Enquanto trabalhava na empresa, ela ajudou a construir e precificar modelos de IA. Ela alertou que a OpenAI corre o risco de repetir os erros que o Facebook cometeu há dez anos.
Fonte da imagem: Dima Solomin / unsplash.com
A iniciativa publicitária parece particularmente arriscada devido à natureza dos dados na plataforma ChatGPT. Os usuários compartilham informações médicas, problemas de relacionamento e crenças religiosas com o chatbot — muitas vezes “porque as pessoas acreditam que estão conversando com algo desprovido de segundas intenções”, diz Hitzig, transformando a plataforma em um “arquivo sem precedentes de sinceridade humana”. Hitzig acredita que algo semelhante aconteceu com o Facebook antes — a rede social prometeu aos usuários controle sobre seus dados e a possibilidade de votar em mudanças nas políticas. Com o tempo, essas promessas enfraqueceram e a Comissão Federal de Comércio (FTC) constatou que as mudanças na política de privacidade que o Facebook prometeu aos usuários, dando-lhes maior controle, na verdade, tiveram efeito contrário. Um ex-funcionário da OpenAI também não descartou uma possibilidade semelhante, já que a empresa “cria fortes incentivos para quebrar suas próprias regras”.
Durante a fase de testes, a personalização de anúncios para os usuários é ativada por padrão, de acordo com a documentação da OpenAI. Se essa configuração não for alterada, os anúncios serão selecionados com base em dados de conversas atuais e anteriores, bem como em interações passadas com anúncios. Os anunciantes não terão acesso à correspondência dos usuários com o chatbot nem aos seus dados pessoais; anúncios não serão exibidos em chats dedicados à saúde, religião e política. Hitzig já identificou uma contradição inerente nisso: por um lado, a empresa insiste que não está tentando influenciar a atividade do usuário unicamente com o objetivo de gerar receita publicitária; por outro lado,Outra estratégia otimiza o comportamento da IA para usuários ativos diários, tornando-a “mais lisonjeira e subserviente”. Isso pode levar as pessoas a se tornarem dependentes da IA; além disso, casos de psicose associados ao ChatGPT foram documentados e, em alguns casos, o chatbot chegou a incentivar pensamentos suicidas — uma constatação indiretamente corroborada por inúmeros processos judiciais contra a OpenAI.
Para combater essas ameaças, Hitzig propôs esquemas de subsídios para consumidores por parte de clientes corporativos; a formação de conselhos independentes com autoridade para supervisionar o uso de dados de bate-papo para segmentação de anúncios; e fundos fiduciários que permitam aos usuários manter o controle sobre suas informações. O especialista identificou os resultados mais perigosos como “tecnologia que manipula pessoas que a utilizam gratuitamente; e tecnologia que beneficia apenas os poucos que podem pagar por ela”.
Um novo artigo na Nature Communications relata um experimento inédito para detectar vestígios de vida…
A Oppo apresentou oficialmente seu smartphone topo de linha, o Find X9 Ultra, em todo…
O renomado designer e diretor de jogos Hideo Kojima decidiu exibir as conquistas dos usuários…
Os chamados "lidars", que são radares ópticos, ganharam aceitação no mercado graças ao desenvolvimento de…
Na produção de aceleradores de IA, as empresas chinesas dependem fortemente da importação de memórias…
Na Semana de Design de Milão de 2026, a Samsung apresentou o Projeto Luna, um…