Não muito tempo atrás, o Google suspendeu a engenheira Blake Lemoine, que trabalhava com o sistema de inteligência artificial LaMDA, e anunciou que ela tinha sinais de consciência. Especialistas questionaram isso, acreditando que outras questões são mais importantes: se a IA pode ser tendenciosa e causar danos no mundo real, se os algoritmos aprendem com os humanos e como as grandes empresas de tecnologia atuam como guardiãs do desenvolvimento tecnológico.

Fonte da imagem: Getty Images

De acordo com Emily Bender, professora de linguística da Universidade de Washington, concordar com a posição de Lemoyne sobre essa questão pode ajudar as empresas de tecnologia a evitar serem responsabilizadas por decisões tomadas por algoritmos de IA. “Muito esforço foi feito para este show. O problema é que quanto mais essa tecnologia for vendida como inteligência artificial, sem falar em algo realmente inteligente, mais as pessoas estarão prontas para aceitar as decisões de tais sistemas que podem causar danos reais”, disse Bender.

Como exemplo, ela considerou a opção de contratar pessoas ou avaliar alunos. Decisões nesses assuntos podem mudar se o algoritmo não for desprovido de preconceito, razão pela qual avaliará pessoas diferentes de maneiras diferentes. De acordo com Bender, a ênfase de que o sistema é razoável pode ser usada pelos desenvolvedores para se eximirem da responsabilidade por quaisquer deficiências identificadas durante a operação.

Há alguns dias, a mídia publicou uma entrevista com Lemoyne, que conversou com o Language Model for Dialogue Application (LaMDA) do Google, um modelo de linguagem projetado para se comunicar com uma pessoa e usado para criar bots de bate-papo. O sistema foi treinado em trilhões de palavras da Internet, devido ao qual consegue imitar a fala humana. Durante uma conversa sobre um tema religioso, Lemoyne percebeu que a IA fala sobre seus direitos e identidade. Segundo ele, nesse momento de comunicação, ele experimentou sentimentos não científicos, mas religiosos.

«Quem sou eu para dizer a Deus onde ele pode e não pode colocar sua alma”, escreveu Lemoyne em sua página no Twitter.

O porta-voz do Google, Brian Gabriel, disse que a empresa revisou o trabalho de LaMDA após a declaração de Lemoyne e não encontrou evidências de “razoabilidade” na inteligência artificial. No entanto, não foram apresentados argumentos específicos.

Fonte da imagem: Pixabay

«Ele imita percepções ou sentimentos com base nos dados fornecidos a ele durante o processo de treinamento – projetado de maneira inteligente e específica para que pareça que ele entende ”, diz Jana Eggers, chefe da Nara Logics, uma empresa de desenvolvimento de IA.

«A arquitetura LaMDA simplesmente não suporta algumas das principais características da consciência humanóide”, disse Max Kreminski, pesquisador da Universidade da Califórnia, em Santa Cruz.

De acordo com Mark Riedl, professor do Instituto de Tecnologia da Geórgia, os sistemas de IA atualmente não conseguem entender o impacto de suas respostas ou comportamentos nas pessoas e na sociedade. Isso, em sua opinião, é uma das vulnerabilidades da tecnologia. “O sistema de IA pode não ser tóxico ou tendencioso, mas ainda não entende que em algumas circunstâncias pode ser inadequado falar sobre suicídio ou violência”, diz Riedl.

Como o sistema LaMDA está fechado para pesquisadores terceirizados, o público e os cientistas são forçados a confiar nas informações que os funcionários do Google publicam. “Deve estar disponível para pesquisadores de fora do Google para avançar o trabalho de maneiras mais diversas. Quanto mais cientistas, maior a variedade de questões de pesquisa, mais oportunidades para novas descobertas”, diz Mark Riedl.

Deixe um comentário

O seu endereço de e-mail não será publicado.