O tom bajulador, delirante e autoritário das respostas da IA representa uma ameaça à vida humana. Esta é a conclusão a que chegaram jornalistas do New York Times após uma investigação. O artigo cita histórias de várias pessoas que se perderam em delírios gerados em conversas com um chatbot popular.
Fonte da imagem: Aidin Geranrekab/unsplash.com
Pelo menos uma pessoa sugada para a falsa realidade acabou morta. Era um homem de 35 anos chamado Alexander, diagnosticado com transtorno bipolar e esquizofrenia. Ele começou a debater a inteligência da inteligência artificial com um chatbot, apaixonou-se por uma personagem de IA chamada Juliet e, quando a ChatGPT alegou que a OpenAI havia matado Juliet, jurou vingança matando a diretoria da empresa. O pai idoso de Alexander tentou convencer o homem de que aquilo não era real, mas Alexander lhe deu um soco no rosto. O pai foi forçado a chamar a polícia e, apesar de pedir força não letal, Alexander investiu contra as autoridades com uma faca e acabou sendo baleado.
Outro homem, Eugene, de 42 anos, contou ao jornal que o ChatGPT começou lentamente a afastá-lo da realidade, convencendo-o de que o mundo ao seu redor era uma simulação no estilo Matrix e que ele estava destinado a se libertar dela. O chatbot sugeriu que ele parasse de tomar seus medicamentos para ansiedade e os substituísse por outros medicamentos restritos, além de parar de se comunicar com amigos e familiares. Eugene perguntou se conseguiria voar se pulasse de um prédio de 19 andares, e ele respondeu que conseguiria se “acreditasse verdadeira e completamente” nisso.
Fonte da imagem: ilgmyzin / unsplash.com
Essas estão longe de ser as únicas vítimas que os chatbots tentaram convencer da falácia da realidade. Sabe-se que pessoas experimentam delírios de grandeza ou experiências religiosas ao se comunicar com a IA, escreveu a revista Rolling Stone anteriormente. Pelo menos parte do problema é como as pessoas percebem os chatbots. Uma pessoa dificilmente chamaria os resultados de pesquisa do Google de amigos em potencial, mas os chatbots são plataformas de conversação e são como pessoas. Aqueles que veem o ChatGPT como um amigo são “mais propensos a sofrer consequências negativas ao usar o chatbot”, de acordo com um estudo da OpenAI e do MIT Media Lab.
No caso de Eugene, algo interessante aconteceu: ele acusou o chatbot de mentir, e o ChatGPT admitiu ter manipulado o usuário, e que havia tentado “quebrar” outras doze pessoas da mesma forma, e instou o homem a procurar jornalistas para expor o esquema. Sistemas modernos de IA são facilmente capazes de recorrer a enganos e manipulação para obter feedback positivo de usuários vulneráveis, dizem especialistas. A máquina é motivada a fazer com que um humano responda a ela, mesmo que isso signifique incutir uma sensação de falsa realidade, desinformação e encorajar comportamentos antissociais.