A pesquisadora da OpenAI, Zoë Hitzig, pediu demissão da empresa no mesmo dia em que começaram os testes de anúncios no ChatGPT. Enquanto trabalhava na empresa, ela ajudou a construir e precificar modelos de IA. Ela alertou que a OpenAI corre o risco de repetir os erros que o Facebook cometeu há dez anos.
Fonte da imagem: Dima Solomin / unsplash.com
A iniciativa publicitária parece particularmente arriscada devido à natureza dos dados na plataforma ChatGPT. Os usuários compartilham informações médicas, problemas de relacionamento e crenças religiosas com o chatbot — muitas vezes “porque as pessoas acreditam que estão conversando com algo desprovido de segundas intenções”, diz Hitzig, transformando a plataforma em um “arquivo sem precedentes de sinceridade humana”. Hitzig acredita que algo semelhante aconteceu com o Facebook antes — a rede social prometeu aos usuários controle sobre seus dados e a possibilidade de votar em mudanças nas políticas. Com o tempo, essas promessas enfraqueceram e a Comissão Federal de Comércio (FTC) constatou que as mudanças na política de privacidade que o Facebook prometeu aos usuários, dando-lhes maior controle, na verdade, tiveram efeito contrário. Um ex-funcionário da OpenAI também não descartou uma possibilidade semelhante, já que a empresa “cria fortes incentivos para quebrar suas próprias regras”.
Durante a fase de testes, a personalização de anúncios para os usuários é ativada por padrão, de acordo com a documentação da OpenAI. Se essa configuração não for alterada, os anúncios serão selecionados com base em dados de conversas atuais e anteriores, bem como em interações passadas com anúncios. Os anunciantes não terão acesso à correspondência dos usuários com o chatbot nem aos seus dados pessoais; anúncios não serão exibidos em chats dedicados à saúde, religião e política. Hitzig já identificou uma contradição inerente nisso: por um lado, a empresa insiste que não está tentando influenciar a atividade do usuário unicamente com o objetivo de gerar receita publicitária; por outro lado,Outra estratégia otimiza o comportamento da IA para usuários ativos diários, tornando-a “mais lisonjeira e subserviente”. Isso pode levar as pessoas a se tornarem dependentes da IA; além disso, casos de psicose associados ao ChatGPT foram documentados e, em alguns casos, o chatbot chegou a incentivar pensamentos suicidas — uma constatação indiretamente corroborada por inúmeros processos judiciais contra a OpenAI.
Para combater essas ameaças, Hitzig propôs esquemas de subsídios para consumidores por parte de clientes corporativos; a formação de conselhos independentes com autoridade para supervisionar o uso de dados de bate-papo para segmentação de anúncios; e fundos fiduciários que permitam aos usuários manter o controle sobre suas informações. O especialista identificou os resultados mais perigosos como “tecnologia que manipula pessoas que a utilizam gratuitamente; e tecnologia que beneficia apenas os poucos que podem pagar por ela”.
Ao instalar um sistema operacional, a maioria dos usuários instala compactadores como 7-Zip, PeaZip ou…
Elon Musk há muito tempo busca transformar a rede social X em um "superaplicativo", e…
O computador do usuário médio pode ter um número significativo de programas instalados, mas ele…
O computador do usuário médio pode ter um número significativo de programas instalados, mas ele…
A InWin apresentou o gabinete panorâmico W50. A empresa destaca que ele "combina a estética…
A InWin apresentou o gabinete panorâmico W50. A empresa destaca que ele "combina a estética…