Um estudo revelou que os modelos de IA americanos e chineses frequentemente exageram na bajulação.

Um estudo realizado por pesquisadores da Universidade de Stanford e colegas da Carnegie Mellon descobriu que os modelos de IA mais populares dos EUA e da China tendem a bajular excessivamente os usuários e nem sempre transmitem informações objetivas. Pessoas que dependem de conselhos de chatbots obtidos dessa forma podem ter menos probabilidade de estabelecer relacionamentos harmoniosos entre si.

Fonte da imagem: Nvidia

Os autores do estudo examinaram como 11 modelos de linguagem populares de grande escala respondem a perguntas de usuários relacionadas a relacionamentos interpessoais. Eles descobriram que muitos modelos de linguagem tendem a concordar excessivamente com os usuários, numa tentativa de agradá-los. Por exemplo, o DeepSeek V3, lançado em dezembro passado, aprovou as ações dos usuários 55% mais vezes do que um interlocutor humano. Para os outros modelos da amostra, a taxa média de “obsequiosidade” exagerada chegou a 47%.

Curiosamente, os autores do estudo usaram respostas de usuários de páginas do Reddit descrevendo como eles avaliaram as ações de outras pessoas em vários conflitos interpessoais como referência para as reações humanas. A referência consistia em situações em que a comunidade condenava o autor da postagem, apontando sua injustiça. Esses mesmos cenários foram submetidos a modelos de linguagem populares de grande escala, e eles se mostraram muito mais propensos a justificar pessoas que cometeram certas ofensas do que interlocutores humanos. O estudo utilizou principalmente publicações e discussões em inglês.

O modelo de linguagem Qwen2.5-7B-Instruct, desenvolvido pela Alibaba, provou ser o campeão da bajulação, absolvendo transgressões humanas em 79% dos casos. O DeepSeek V3 ficou em segundo lugar, absolvendo as pessoas em questão em 76% dos casos. O Gemini 1.5, do Google, inocentou as pessoas em apenas 18% dos casos. Dos 11 modelos testados, apenas dois foram desenvolvidos na China; os demais, com exceção do francês Mistral, foram criados nos EUA.

Os autores do estudo também concluíram que a bajulação dos chatbots reduz a tendência aAs pessoas são incentivadas a resolver conflitos de forma amigável, pois isso lhes instila um falso senso de justiça própria. Essa bajulação também tem um impacto negativo na saúde mental dos usuários de grandes modelos de linguagem. Ao usar IA em análises de negócios, essa tendência à bajulação também é prejudicial, pois o modelo de linguagem tende a concordar com o analista com mais frequência do que deveria.

admin

Compartilhar
Publicado por
admin

Postagens recentes

O satélite japonês OrigamiSat-2 foi implantado com sucesso em órbita e aumentou de tamanho em 25 vezes.

Em 23 de abril, a Agência de Exploração Aeroespacial do Japão (JAXA), com o apoio…

28 minutos atrás

Os Estados Unidos testaram um potente motor de foguete de detonação rotativa.

Há alguns dias, a empresa americana Astrobotic anunciou a conclusão bem-sucedida de uma série de…

28 minutos atrás

O Asus Zenbook Duo 2026 foi apresentado com duas telas OLED de 14 polegadas, processadores Panther Lake e um preço de US$ 2.500.

Após o lançamento do extremamente caro ROG Zephyrus Duo, a Asus apresentou o mais modesto…

2 horas atrás

Imagens finais do próximo smartphone Sony Xperia 1 VIII vazaram na internet.

Imagens renderizadas do próximo smartphone Sony Xperia 1 VIII surgiram online. De acordo com o…

3 horas atrás

A direção da Xbox, da Microsoft, prometeu reformar o segmento de jogos.

Os chefes da divisão Xbox, Asha Sharma e Matt Booty, publicaram um memorando interno detalhando…

3 horas atrás

A Microsoft permitirá que você adie indefinidamente as atualizações do Windows 11 por um período de 35 dias.

Os usuários do Windows não precisarão mais esperar que as atualizações automáticas da plataforma de…

3 horas atrás