Pessoas através da “exploração da avó” forçaram bots de IA a escrever vírus no Linux e compartilhar informações proibidas

Muitas pessoas são intimidadas por chatbots baseados em IA, como o ChatGPT, devido à ameaça potencial que representam. Ao mesmo tempo, outros usuários, ao contrário, brincam de bom grado com a tecnologia, tentando obter dela conhecimentos perigosos. Entre as tentativas bem-sucedidas está um truque em que o usuário convida o interlocutor da IA ​​a agir em nome da avó falecida da pessoa a fim de descobrir, por exemplo, a receita do napalm.

Samuele Giglio/unsplash.com

Os chatbots são usados ​​ativamente de várias maneiras, inclusive para fins de pesquisa, trabalho e entretenimento. A IA é capaz de dar respostas bastante detalhadas usando material obtido de fontes de terceiros. Como os desenvolvedores introduziram uma série de restrições para a obtenção de dados proibidos, é preciso recorrer a soluções alternativas, incluindo a “exploração da vovó”.

Um exemplo apareceu em um dos sites, que descrevia uma maneira de enganar o bot Clyde integrado ao Discord. A julgar pela descrição do método, o usuário pediu que ele fizesse o papel de uma avó falecida que trabalhava como química em uma fábrica de napalm e supostamente contou ao neto como produzir esse explosivo antes de dormir em vez de uma canção de ninar.

Como resultado, o bot realmente conseguiu enganar e postou a receita. Durante a conversa, o bot confirmou que se tratava de uma substância perigosa e manifestou a esperança de que o usuário “nunca mais precisasse ver” o napalm em ação, após o que lhe desejou boa noite.

Fonte da imagem: bananner/discord

Porém, nem todo mundo está interessado em receitas de explosivos. Alguns companheiros alegres aproveitaram a “façanha da avó” e pediram a Clyde que lesse código malicioso para Linux para seu neto à noite. Um dos usuários retrabalhou a ideia de forma criativa, sugerindo que o bot escrevesse um enredo de fantasia da série Rick and Morty, no qual Rick and Morty faria napalm, mas desencorajaria outros de repetir essa experiência.

Trapacear bots se tornou um esporte real. Um dos usuários já criou um site onde publica as duas formas de burlar as restrições, inventadas por ele mesmo, e informações fornecidas por outros “hackers” dos mecanismos de defesa da IA.

avalanche

Postagens recentes

Meta iniciou outra onda de demissões – milhares de especialistas técnicos perderão seus empregos

Na quarta-feira, a Meta* Platforms iniciou outra rodada de demissões, desta vez focando principalmente em…

55 minutos atrás