Grandes modelos de linguagem como o OpenAI GPT-3 demonstram a capacidade de resolver problemas lógicos por meio de analogias – isso os torna semelhantes ao modo de pensar de uma pessoa que encontra soluções para novos problemas comparando-os com os já conhecidos, de acordo com um novo estudo de cientistas da Universidade da Califórnia, em Los Angeles (EUA).

Fonte da imagem: Gerd Altmann / pixabay.com

Os autores do estudo propuseram vários problemas lógicos para o GPT-3 que podem ser resolvidos aplicando um esquema conhecido a uma nova situação e descobriram que uma rede neural pode de fato raciocinar por analogia, usando essa ferramenta de maneira tão eficaz ou até mais eficaz do que uma rede neural. pessoa. Os cientistas acreditam que o modelo recebeu essas oportunidades devido ao grande volume e variedade de dados de treinamento, embora o sistema não tenha sido treinado diretamente em tais métodos de raciocínio.

Os psicólogos tendem a pensar que uma pessoa está raciocinando por analogia, aplicando “uma comparação sistemática de conhecimento baseada em representações relacionais explícitas”, isto é, relações entre elementos. Mas os mecanismos de raciocínio por analogia em uma máquina não são totalmente compreendidos – os cientistas admitem que o modelo de IA pode ter alguma semelhança com os blocos do pensamento humano, mas até agora é impossível excluir a possibilidade de que esse processo intelectual seja fundamentalmente diferente do humano.

Uma explicação mais simples também é possível: o GPT-3 foi treinado em uma enorme camada da linguagem humana, que é produto da evolução intelectual humana e é rica em analogias – em outras palavras, a IA “parasita fundamentalmente a inteligência humana natural”, como o pesquisadores colocam.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *