A IA está ficando mais inteligente – um chatbot baseado em GPT-4 passa no teste de Turing

No mundo de hoje, as pessoas interagem com a inteligência artificial online não apenas com mais frequência do que nunca, mas também com mais frequência do que pensam. As redes neurais estão se tornando cada vez mais avançadas e muitas vezes não é tão fácil distingui-las de uma pessoa. Para confirmar isso, cientistas do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) realizaram um estudo no qual foi solicitado aos entrevistados que se comunicassem com quatro agentes, entre os quais havia apenas uma pessoa.

Fonte da imagem: Copiloto

O objetivo do estudo era determinar se os participantes conseguiam distinguir um interlocutor sintético de uma pessoa real. O estudo dos cientistas é uma interpretação moderna do teste, proposto pelo famoso matemático Alan Turing em 1950. O teste é considerado aprovado se o algoritmo de IA, no processo de comunicação com uma pessoa, puder fazê-la pensar que outra pessoa está conversando com ela.

Os testes envolveram 500 pessoas, que durante algum tempo conversaram alternadamente com quatro agentes, um dos quais era uma pessoa, e mais três eram produtos de software, como o interlocutor virtual ELIZA escrito na década de 60 do século passado e modernos chatbots construídos em baseado nos grandes modelos de linguagem GPT-3.5 e GPT-4 (este último também é a base do popular bot de IA ChatGPT).

Os entrevistados conversaram com cada agente por cinco minutos, após os quais tiveram que dizer se achavam que estavam falando com um humano ou com um chatbot. Como resultado, descobriu-se que 54% dos participantes do teste confundiram o GPT-4 com uma pessoa. ELIZA, que não possui um grande modelo de linguagem e arquitetura de rede neural em seu arsenal, foi reconhecido por uma pessoa apenas em 22% dos casos. O algoritmo baseado em GPT-3.5 foi reconhecido como uma pessoa em 50% dos casos, e a pessoa foi identificada em 67% dos casos.

«As máquinas podem raciocinar reunindo justificativas plausíveis para as coisas depois do fato, assim como os humanos fazem. Eles podem estar sujeitos a preconceitos cognitivos, podem ser manipulados e tornar-se cada vez mais enganosos. Tudo isso significa que os sistemas de IA expressam falhas e peculiaridades humanas, o que os torna mais humanos do que soluções semelhantes anteriores que tinham apenas uma lista de respostas prontas em seu arsenal”, comentou um dos pesquisadores sobre os resultados do trabalho.

avalanche

Postagens recentes

Milagre de Natal: Documentos da Rockstar do início dos anos 2000 foram tornados públicos, incluindo planos para GTA Online de 2001

Pelo segundo ano consecutivo, as férias de Natal se transformaram em vazamentos desagradáveis ​​para a…

1 minuto atrás

A enorme GPU GeForce RTX 5090 apareceu na foto cercada por chips GDDR7

O usuário do fórum Chiphell, que publicou a primeira foto da placa de circuito impresso…

1 hora atrás

Bitrix24 apresentou seu próprio modelo de IA BitrixGPT

O serviço russo de gerenciamento de negócios Bitrix24 apresentou um modelo de IA de seu…

1 hora atrás

Em 2024, mais de 1.400 jogos foram aprovados para lançamento na China – este é o melhor resultado dos últimos cinco anos

O South China Morning Post relata que esta semana a Administração Nacional de Imprensa e…

1 hora atrás

O Google usa o bot rival de IA Anthropic Claude para melhorar suas redes neurais Gemini

Os parceiros contratuais do Google, trabalhando para melhorar a qualidade das respostas do chatbot Gemini…

2 horas atrás