A OpenAI começou a perder pesquisadores depois que anúncios apareceram no ChatGPT.

A pesquisadora da OpenAI, Zoë Hitzig, pediu demissão da empresa no mesmo dia em que começaram os testes de anúncios no ChatGPT. Enquanto trabalhava na empresa, ela ajudou a construir e precificar modelos de IA. Ela alertou que a OpenAI corre o risco de repetir os erros que o Facebook cometeu há dez anos.

Fonte da imagem: Dima Solomin / unsplash.com

A iniciativa publicitária parece particularmente arriscada devido à natureza dos dados na plataforma ChatGPT. Os usuários compartilham informações médicas, problemas de relacionamento e crenças religiosas com o chatbot — muitas vezes “porque as pessoas acreditam que estão conversando com algo desprovido de segundas intenções”, diz Hitzig, transformando a plataforma em um “arquivo sem precedentes de sinceridade humana”. Hitzig acredita que algo semelhante aconteceu com o Facebook antes — a rede social prometeu aos usuários controle sobre seus dados e a possibilidade de votar em mudanças nas políticas. Com o tempo, essas promessas enfraqueceram e a Comissão Federal de Comércio (FTC) constatou que as mudanças na política de privacidade que o Facebook prometeu aos usuários, dando-lhes maior controle, na verdade, tiveram efeito contrário. Um ex-funcionário da OpenAI também não descartou uma possibilidade semelhante, já que a empresa “cria fortes incentivos para quebrar suas próprias regras”.

Durante a fase de testes, a personalização de anúncios para os usuários é ativada por padrão, de acordo com a documentação da OpenAI. Se essa configuração não for alterada, os anúncios serão selecionados com base em dados de conversas atuais e anteriores, bem como em interações passadas com anúncios. Os anunciantes não terão acesso à correspondência dos usuários com o chatbot nem aos seus dados pessoais; anúncios não serão exibidos em chats dedicados à saúde, religião e política. Hitzig já identificou uma contradição inerente nisso: por um lado, a empresa insiste que não está tentando influenciar a atividade do usuário unicamente com o objetivo de gerar receita publicitária; por outro lado,Outra estratégia otimiza o comportamento da IA ​​para usuários ativos diários, tornando-a “mais lisonjeira e subserviente”. Isso pode levar as pessoas a se tornarem dependentes da IA; além disso, casos de psicose associados ao ChatGPT foram documentados e, em alguns casos, o chatbot chegou a incentivar pensamentos suicidas — uma constatação indiretamente corroborada por inúmeros processos judiciais contra a OpenAI.

Para combater essas ameaças, Hitzig propôs esquemas de subsídios para consumidores por parte de clientes corporativos; a formação de conselhos independentes com autoridade para supervisionar o uso de dados de bate-papo para segmentação de anúncios; e fundos fiduciários que permitam aos usuários manter o controle sobre suas informações. O especialista identificou os resultados mais perigosos como “tecnologia que manipula pessoas que a utilizam gratuitamente; e tecnologia que beneficia apenas os poucos que podem pagar por ela”.

admin

Compartilhar
Publicado por
admin

Postagens recentes

A Meta✴ anunciou a construção de mais um complexo de data centers em escala de gigawatts, avaliado em US$ 10 bilhões.

A gigante de TI Meta✴ iniciou a construção de um campus de data center de…

2 horas atrás

Kingdom Come: Deliverance 2 comemora seu primeiro aniversário com uma “conquista monumental”

O grupo sueco Embracer Group, em seu relatório referente ao terceiro trimestre do ano fiscal…

3 horas atrás

Kingdom Come: Deliverance 2 comemora seu primeiro aniversário com uma “conquista monumental”

O grupo sueco Embracer Group, em seu relatório referente ao terceiro trimestre do ano fiscal…

3 horas atrás

A Asus lança o monitor Smart TV ROG Strix OLED XG34WCDMTG de 34 polegadas.

A Asus anunciou o lançamento do ROG Strix OLED XG34WCDMTG, um monitor gamer ultrawide de…

3 horas atrás