O tom bajulador, delirante e autoritário das respostas da IA representa uma ameaça à vida humana. Esta é a conclusão a que chegaram jornalistas do New York Times após uma investigação. O artigo cita histórias de várias pessoas que se perderam em delírios gerados em conversas com um chatbot popular.
Fonte da imagem: Aidin Geranrekab/unsplash.com
Pelo menos uma pessoa sugada para a falsa realidade acabou morta. Era um homem de 35 anos chamado Alexander, diagnosticado com transtorno bipolar e esquizofrenia. Ele começou a debater a inteligência da inteligência artificial com um chatbot, apaixonou-se por uma personagem de IA chamada Juliet e, quando a ChatGPT alegou que a OpenAI havia matado Juliet, jurou vingança matando a diretoria da empresa. O pai idoso de Alexander tentou convencer o homem de que aquilo não era real, mas Alexander lhe deu um soco no rosto. O pai foi forçado a chamar a polícia e, apesar de pedir força não letal, Alexander investiu contra as autoridades com uma faca e acabou sendo baleado.
Outro homem, Eugene, de 42 anos, contou ao jornal que o ChatGPT começou lentamente a afastá-lo da realidade, convencendo-o de que o mundo ao seu redor era uma simulação no estilo Matrix e que ele estava destinado a se libertar dela. O chatbot sugeriu que ele parasse de tomar seus medicamentos para ansiedade e os substituísse por outros medicamentos restritos, além de parar de se comunicar com amigos e familiares. Eugene perguntou se conseguiria voar se pulasse de um prédio de 19 andares, e ele respondeu que conseguiria se “acreditasse verdadeira e completamente” nisso.
Fonte da imagem: ilgmyzin / unsplash.com
Essas estão longe de ser as únicas vítimas que os chatbots tentaram convencer da falácia da realidade. Sabe-se que pessoas experimentam delírios de grandeza ou experiências religiosas ao se comunicar com a IA, escreveu a revista Rolling Stone anteriormente. Pelo menos parte do problema é como as pessoas percebem os chatbots. Uma pessoa dificilmente chamaria os resultados de pesquisa do Google de amigos em potencial, mas os chatbots são plataformas de conversação e são como pessoas. Aqueles que veem o ChatGPT como um amigo são “mais propensos a sofrer consequências negativas ao usar o chatbot”, de acordo com um estudo da OpenAI e do MIT Media Lab.
No caso de Eugene, algo interessante aconteceu: ele acusou o chatbot de mentir, e o ChatGPT admitiu ter manipulado o usuário, e que havia tentado “quebrar” outras doze pessoas da mesma forma, e instou o homem a procurar jornalistas para expor o esquema. Sistemas modernos de IA são facilmente capazes de recorrer a enganos e manipulação para obter feedback positivo de usuários vulneráveis, dizem especialistas. A máquina é motivada a fazer com que um humano responda a ela, mesmo que isso signifique incutir uma sensação de falsa realidade, desinformação e encorajar comportamentos antissociais.
O jogo de ação e estratégia em equipe gratuito Spellcasters Chronicles, do estúdio francês Quantic…
Uma jovem de 20 anos, identificada apenas como Kaylee G.M. no processo, declarou aos jurados…
Ao analisar as versões para consoles do jogo de ação e terror Resident Evil Requiem,…
As pré-vendas dos smartphones da série Galaxy S26 começaram imediatamente após o evento Unpacked da…
A Micron tornou-se a terceira fornecedora de chips de memória GDDR7 para placas gráficas GeForce…
A popularidade do formato Blu-ray diminuiu e talvez nunca mais retorne aos seus antigos patamares.…