Comunicação com chatbots estreita o vocabulário humano, descobrem cientistas alemães

O ChatGPT e outros chatbots de IA estão mudando o mundo, inclusive influenciando a fala dos humanos modernos. Essa é a conclusão a que chegaram cientistas alemães em seu estudo recente, alertando para a ameaça da perda da diversidade linguística e cultural.

Fonte da imagem: Igor Omilaev/unsplash.com

Uma equipe de pesquisadores do Instituto Max Planck para o Desenvolvimento Humano publicou uma versão preliminar do artigo, sem revisão por pares. Eles descobriram que palavras frequentemente usadas pelo ChatGPT também se tornaram cada vez mais comuns na fala humana desde que o popular chatbot de IA foi lançado em 2022. A lista de “palavras do GPT” inclui “entender”, “orgulhoso”, “rápido”, “completo” e, a mais popular, “aprofundar-se”. Os pesquisadores analisaram 360.445 palestras acadêmicas no YouTube e 771.591 episódios de podcast e descobriram que palavras como “aprofundar-se”, “rápido”, “completo” e “solicitar” de fato aumentaram em conteúdo de áudio e vídeo sobre uma variedade de tópicos.

Os autores do estudo não avaliam se essa mudança é positiva ou negativa, mas acreditam que as descobertas dão motivos para refletir se grandes modelos linguísticos têm uma cultura própria que pode influenciar a formação da cultura humana. A interação entre humanos e IA pode ter consequências a longo prazo para as práticas linguísticas de ambas as partes. Cientistas alertam que tal mecanismo pode levar à formação de um “ciclo fechado de feedback cultural, no qual aspectos culturais circulam entre humanos e máquinas”. Se o impacto for suficientemente longo e generalizado, isso pode contribuir para a homogeneidade cultural.

«Se os sistemas de IA começarem a favorecer certos aspectos culturais desproporcionalmente, isso poderá acelerar a erosão da diversidade cultural. Para agravar a ameaça, futuros modelos de IA serão treinados com dados cada vez mais dominados pelos mesmos padrões impulsionados pela IA e reforçados por humanos, levando a um ciclo autoperpetuante. À medida que certas estruturas linguísticas se tornam monopolizadas, o risco de colapso do modelo aumenta devido a um novo fator: mesmo a inclusão de humanos no processo de treinamento pode não proporcionar a diversidade necessária nos dados”, afirma o estudo.

admin

Postagens recentes

Hackers white hat revelam senhas de ‘administrador’ e outras falhas de segurança cibernética no Burger King

Os hackers éticos BobDaHacker e BobTheShoplifter anunciaram a descoberta de “vulnerabilidades catastróficas” nos sistemas de…

11 minutos atrás

Microsoft testa novos recursos de IA no Explorador de Arquivos do Windows 11

A Microsoft está testando novos recursos com tecnologia de IA que permitirão que usuários do…

19 minutos atrás

Ex-funcionário processa WhatsApp por ignorar questões de segurança cibernética

Um ex-executivo de alta responsabilidade em segurança cibernética do WhatsApp entrou com uma ação judicial…

2 horas atrás

OpenAI considera sair da Califórnia para reduzir burocracia

De acordo com o The Wall Street Journal, a reestruturação planejada da OpenAI enfrenta obstáculos…

2 horas atrás