A pesquisadora da OpenAI, Zoë Hitzig, pediu demissão da empresa no mesmo dia em que começaram os testes de anúncios no ChatGPT. Enquanto trabalhava na empresa, ela ajudou a construir e precificar modelos de IA. Ela alertou que a OpenAI corre o risco de repetir os erros que o Facebook cometeu há dez anos.
Fonte da imagem: Dima Solomin / unsplash.com
A iniciativa publicitária parece particularmente arriscada devido à natureza dos dados na plataforma ChatGPT. Os usuários compartilham informações médicas, problemas de relacionamento e crenças religiosas com o chatbot — muitas vezes “porque as pessoas acreditam que estão conversando com algo desprovido de segundas intenções”, diz Hitzig, transformando a plataforma em um “arquivo sem precedentes de sinceridade humana”. Hitzig acredita que algo semelhante aconteceu com o Facebook antes — a rede social prometeu aos usuários controle sobre seus dados e a possibilidade de votar em mudanças nas políticas. Com o tempo, essas promessas enfraqueceram e a Comissão Federal de Comércio (FTC) constatou que as mudanças na política de privacidade que o Facebook prometeu aos usuários, dando-lhes maior controle, na verdade, tiveram efeito contrário. Um ex-funcionário da OpenAI também não descartou uma possibilidade semelhante, já que a empresa “cria fortes incentivos para quebrar suas próprias regras”.
Durante a fase de testes, a personalização de anúncios para os usuários é ativada por padrão, de acordo com a documentação da OpenAI. Se essa configuração não for alterada, os anúncios serão selecionados com base em dados de conversas atuais e anteriores, bem como em interações passadas com anúncios. Os anunciantes não terão acesso à correspondência dos usuários com o chatbot nem aos seus dados pessoais; anúncios não serão exibidos em chats dedicados à saúde, religião e política. Hitzig já identificou uma contradição inerente nisso: por um lado, a empresa insiste que não está tentando influenciar a atividade do usuário unicamente com o objetivo de gerar receita publicitária; por outro lado,Outra estratégia otimiza o comportamento da IA para usuários ativos diários, tornando-a “mais lisonjeira e subserviente”. Isso pode levar as pessoas a se tornarem dependentes da IA; além disso, casos de psicose associados ao ChatGPT foram documentados e, em alguns casos, o chatbot chegou a incentivar pensamentos suicidas — uma constatação indiretamente corroborada por inúmeros processos judiciais contra a OpenAI.
Para combater essas ameaças, Hitzig propôs esquemas de subsídios para consumidores por parte de clientes corporativos; a formação de conselhos independentes com autoridade para supervisionar o uso de dados de bate-papo para segmentação de anúncios; e fundos fiduciários que permitam aos usuários manter o controle sobre suas informações. O especialista identificou os resultados mais perigosos como “tecnologia que manipula pessoas que a utilizam gratuitamente; e tecnologia que beneficia apenas os poucos que podem pagar por ela”.
Até recentemente, acreditava-se que a Nvidia investiria os prometidos US$ 100 bilhões na OpenAI, mas…
A Broadcom pode estar sendo ofuscada pelo boom da IA, mas isso não a impediu…
A última sexta-feira não foi um bom dia para a startup de IA Anthropic, já…
Um problema na transferência de hélio no estágio intermediário do foguete SLS, na segunda quinzena…
Em meio ao crescente boom da IA, os compradores estão dispostos a pagar por uma…
A Nvidia lançou a versão 595.76 do driver de correção, que resolve problemas de voltagem…