O ChatGPT e outros chatbots de IA estão mudando o mundo, inclusive influenciando a fala dos humanos modernos. Essa é a conclusão a que chegaram cientistas alemães em seu estudo recente, alertando para a ameaça da perda da diversidade linguística e cultural.

Fonte da imagem: Igor Omilaev/unsplash.com
Uma equipe de pesquisadores do Instituto Max Planck para o Desenvolvimento Humano publicou uma versão preliminar do artigo, sem revisão por pares. Eles descobriram que palavras frequentemente usadas pelo ChatGPT também se tornaram cada vez mais comuns na fala humana desde que o popular chatbot de IA foi lançado em 2022. A lista de “palavras do GPT” inclui “entender”, “orgulhoso”, “rápido”, “completo” e, a mais popular, “aprofundar-se”. Os pesquisadores analisaram 360.445 palestras acadêmicas no YouTube e 771.591 episódios de podcast e descobriram que palavras como “aprofundar-se”, “rápido”, “completo” e “solicitar” de fato aumentaram em conteúdo de áudio e vídeo sobre uma variedade de tópicos.
Os autores do estudo não avaliam se essa mudança é positiva ou negativa, mas acreditam que as descobertas dão motivos para refletir se grandes modelos linguísticos têm uma cultura própria que pode influenciar a formação da cultura humana. A interação entre humanos e IA pode ter consequências a longo prazo para as práticas linguísticas de ambas as partes. Cientistas alertam que tal mecanismo pode levar à formação de um “ciclo fechado de feedback cultural, no qual aspectos culturais circulam entre humanos e máquinas”. Se o impacto for suficientemente longo e generalizado, isso pode contribuir para a homogeneidade cultural.
«Se os sistemas de IA começarem a favorecer certos aspectos culturais desproporcionalmente, isso poderá acelerar a erosão da diversidade cultural. Para agravar a ameaça, futuros modelos de IA serão treinados com dados cada vez mais dominados pelos mesmos padrões impulsionados pela IA e reforçados por humanos, levando a um ciclo autoperpetuante. À medida que certas estruturas linguísticas se tornam monopolizadas, o risco de colapso do modelo aumenta devido a um novo fator: mesmo a inclusão de humanos no processo de treinamento pode não proporcionar a diversidade necessária nos dados”, afirma o estudo.
