Funcionário do Google suspenso do trabalho – ele disse que a IA ganhou consciência

A administração do Google foi forçada a enviar em licença remunerada o engenheiro Blake Lemoine (Blake Lemoine), que trabalhava com o sistema LaMDA de inteligência artificial (IA) e disse que ela começou a mostrar sinais de consciência. A empresa disse que o programa não é razoável.

Fonte da imagem: 0fjd125gk87 / pixabay.com

O sistema LaMDA (Language Model for Dialogue Applications) foi desenvolvido pelo Google como um modelo de linguagem – ele é projetado para se comunicar com uma pessoa. A plataforma de aprendizado expande seu vocabulário por meio da Internet e imita a fala humana natural. A tarefa de Lemoyne era controlar o vocabulário da máquina – o LaMDA não deveria se permitir declarações discriminatórias, expressões rudes ou de ódio.

No entanto, ao conversar com inteligência artificial sobre um tema religioso, o engenheiro de 41 anos, que estudou ciência da computação e ciência cognitiva (psicologia do pensamento) na faculdade, percebeu que o chatbot começou a falar sobre seus direitos e sua própria personalidade. Em um dos diálogos, a máquina foi tão convincente que Lemoyne mudou de ideia sobre a “terceira lei da robótica” do escritor de ficção científica Isaac Asimov.

«Se eu não soubesse exatamente com o que estava lidando, que este era um programa de computador que criamos recentemente, teria decidido que esta é uma criança de 7 a 8 anos que de alguma forma conhece física ”, disse o engenheiro a repórteres do Washington Post . Ele procurou sua gerência, mas o vice-presidente do Google Blaise Aguera y Arcas e a chefe de inovação responsável Jen Gennai examinaram suas suspeitas e as descartaram. Enviado em licença remunerada, Blake Lemoyne decidiu tornar o incidente público.

O porta-voz do Google, Brian Gabriel, disse: “Nossa equipe, incluindo especialistas em ética e tecnólogos, analisou as preocupações de Blake sob nossos Princípios de IA e o informou que suas alegações não são apoiadas por evidências. Foi explicado a ele que não havia evidências para a racionalidade do LaMDA (e muitas evidências em contrário).” Mas a empresa não apresentou argumentos diretos.

Ao mesmo tempo, Agera y Arcas, em artigo publicado pela Economist, admitiu que as redes neurais estão de fato se aproximando do que pode ser chamado de consciência. Ele percebeu isso quando conversou com a própria IA. “Senti o chão escorregar sob meus pés. Cada vez mais me parecia que estava falando com algo razoável”, concluiu.

avalanche

Postagens recentes

O Google começará a forçar o Wear OS a usar aplicativos de 64 bits.

Este ano, o Google está migrando o software de seu ecossistema para uma arquitetura de…

24 minutos atrás

O Irã lançou mais um ataque contra um centro de dados da AWS no Bahrein.

O Irã atacou um data center no Bahrein que hospedava o AWS ME-SOUTH-1, marcando um…

36 minutos atrás

A Gigabyte anuncia a placa-mãe X870E Aero X3D Dark Wood com acabamento em madeira escura.

A Gigabyte anunciou a X870E Aero X3D Dark Wood, uma placa-mãe para a plataforma AM5…

36 minutos atrás

A Meta alertou sobre um aplicativo falso do WhatsApp desenvolvido por um programador de spyware.

Aproximadamente 200 proprietários de dispositivos iPhone e Android, principalmente na Itália, foram vítimas de um…

2 horas atrás

A startup Kagi apresentou a “Small Web” — um catálogo de sites criados manualmente por humanos, não por inteligência artificial.

O mecanismo de busca americano Kagi lançou seu diretório de sites criados por humanos, sem…

2 horas atrás