Especialistas não acreditavam no surgimento de “mente” no sistema LaMDA AI do Google

Não muito tempo atrás, o Google suspendeu a engenheira Blake Lemoine, que trabalhava com o sistema de inteligência artificial LaMDA, e anunciou que ela tinha sinais de consciência. Especialistas questionaram isso, acreditando que outras questões são mais importantes: se a IA pode ser tendenciosa e causar danos no mundo real, se os algoritmos aprendem com os humanos e como as grandes empresas de tecnologia atuam como guardiãs do desenvolvimento tecnológico.

Fonte da imagem: Getty Images

De acordo com Emily Bender, professora de linguística da Universidade de Washington, concordar com a posição de Lemoyne sobre essa questão pode ajudar as empresas de tecnologia a evitar serem responsabilizadas por decisões tomadas por algoritmos de IA. “Muito esforço foi feito para este show. O problema é que quanto mais essa tecnologia for vendida como inteligência artificial, sem falar em algo realmente inteligente, mais as pessoas estarão prontas para aceitar as decisões de tais sistemas que podem causar danos reais”, disse Bender.

Como exemplo, ela considerou a opção de contratar pessoas ou avaliar alunos. Decisões nesses assuntos podem mudar se o algoritmo não for desprovido de preconceito, razão pela qual avaliará pessoas diferentes de maneiras diferentes. De acordo com Bender, a ênfase de que o sistema é razoável pode ser usada pelos desenvolvedores para se eximirem da responsabilidade por quaisquer deficiências identificadas durante a operação.

Há alguns dias, a mídia publicou uma entrevista com Lemoyne, que conversou com o Language Model for Dialogue Application (LaMDA) do Google, um modelo de linguagem projetado para se comunicar com uma pessoa e usado para criar bots de bate-papo. O sistema foi treinado em trilhões de palavras da Internet, devido ao qual consegue imitar a fala humana. Durante uma conversa sobre um tema religioso, Lemoyne percebeu que a IA fala sobre seus direitos e identidade. Segundo ele, nesse momento de comunicação, ele experimentou sentimentos não científicos, mas religiosos.

«Quem sou eu para dizer a Deus onde ele pode e não pode colocar sua alma”, escreveu Lemoyne em sua página no Twitter.

O porta-voz do Google, Brian Gabriel, disse que a empresa revisou o trabalho de LaMDA após a declaração de Lemoyne e não encontrou evidências de “razoabilidade” na inteligência artificial. No entanto, não foram apresentados argumentos específicos.

Fonte da imagem: Pixabay

«Ele imita percepções ou sentimentos com base nos dados fornecidos a ele durante o processo de treinamento – projetado de maneira inteligente e específica para que pareça que ele entende ”, diz Jana Eggers, chefe da Nara Logics, uma empresa de desenvolvimento de IA.

«A arquitetura LaMDA simplesmente não suporta algumas das principais características da consciência humanóide”, disse Max Kreminski, pesquisador da Universidade da Califórnia, em Santa Cruz.

De acordo com Mark Riedl, professor do Instituto de Tecnologia da Geórgia, os sistemas de IA atualmente não conseguem entender o impacto de suas respostas ou comportamentos nas pessoas e na sociedade. Isso, em sua opinião, é uma das vulnerabilidades da tecnologia. “O sistema de IA pode não ser tóxico ou tendencioso, mas ainda não entende que em algumas circunstâncias pode ser inadequado falar sobre suicídio ou violência”, diz Riedl.

Como o sistema LaMDA está fechado para pesquisadores terceirizados, o público e os cientistas são forçados a confiar nas informações que os funcionários do Google publicam. “Deve estar disponível para pesquisadores de fora do Google para avançar o trabalho de maneiras mais diversas. Quanto mais cientistas, maior a variedade de questões de pesquisa, mais oportunidades para novas descobertas”, diz Mark Riedl.

avalanche

Postagens recentes

Uma atualização recente do Windows 11 reduziu o desempenho das placas gráficas Nvidia GeForce.

Este mês, a Microsoft lançou mais uma atualização para o Windows 11, que se mostrou…

2 horas atrás

O “TikTok de IA” da OpenAI viralizou após seu lançamento, mas o interesse diminuiu rapidamente — talvez propositalmente.

Após seu lançamento no final de setembro de 2025, o aplicativo de geração de vídeo…

2 horas atrás

A Tesla já opera cerca de 1.000 robôs humanoides Optimus em suas instalações.

A falta de demonstrações públicas dos robôs humanoides Optimus da Tesla nos últimos meses não…

7 horas atrás

A Micron comprará a fábrica de memória de sua rival taiwanesa por US$ 1,8 bilhão.

Esta semana, a empresa americana Micron Technology deixou claro que a expansão da produção de…

9 horas atrás

Patologia 3: A cura para a morte é a saudade. Resenha

Processador Intel Core i3-12100F 3.3 GHz / AMD Ryzen 5 5600X 3.7 GHz, 8 GB…

15 horas atrás