Pessoas através da “exploração da avó” forçaram bots de IA a escrever vírus no Linux e compartilhar informações proibidas

Muitas pessoas são intimidadas por chatbots baseados em IA, como o ChatGPT, devido à ameaça potencial que representam. Ao mesmo tempo, outros usuários, ao contrário, brincam de bom grado com a tecnologia, tentando obter dela conhecimentos perigosos. Entre as tentativas bem-sucedidas está um truque em que o usuário convida o interlocutor da IA ​​a agir em nome da avó falecida da pessoa a fim de descobrir, por exemplo, a receita do napalm.

Samuele Giglio/unsplash.com

Os chatbots são usados ​​ativamente de várias maneiras, inclusive para fins de pesquisa, trabalho e entretenimento. A IA é capaz de dar respostas bastante detalhadas usando material obtido de fontes de terceiros. Como os desenvolvedores introduziram uma série de restrições para a obtenção de dados proibidos, é preciso recorrer a soluções alternativas, incluindo a “exploração da vovó”.

Um exemplo apareceu em um dos sites, que descrevia uma maneira de enganar o bot Clyde integrado ao Discord. A julgar pela descrição do método, o usuário pediu que ele fizesse o papel de uma avó falecida que trabalhava como química em uma fábrica de napalm e supostamente contou ao neto como produzir esse explosivo antes de dormir em vez de uma canção de ninar.

Como resultado, o bot realmente conseguiu enganar e postou a receita. Durante a conversa, o bot confirmou que se tratava de uma substância perigosa e manifestou a esperança de que o usuário “nunca mais precisasse ver” o napalm em ação, após o que lhe desejou boa noite.

Fonte da imagem: bananner/discord

Porém, nem todo mundo está interessado em receitas de explosivos. Alguns companheiros alegres aproveitaram a “façanha da avó” e pediram a Clyde que lesse código malicioso para Linux para seu neto à noite. Um dos usuários retrabalhou a ideia de forma criativa, sugerindo que o bot escrevesse um enredo de fantasia da série Rick and Morty, no qual Rick and Morty faria napalm, mas desencorajaria outros de repetir essa experiência.

Trapacear bots se tornou um esporte real. Um dos usuários já criou um site onde publica as duas formas de burlar as restrições, inventadas por ele mesmo, e informações fornecidas por outros “hackers” dos mecanismos de defesa da IA.

avalanche

Postagens recentes

“Todos estão infelizes, exceto a gerência”: o moral na Meta atinge o nível mais baixo da história, apesar dos lucros recordes.

O moral na Meta✴ atingiu um nível historicamente baixo às vésperas da demissão de quase…

2 horas atrás

Seguindo o caminho já trilhado: a crítica deu seu veredito sobre Forza Horizon 6.

Antes de seu lançamento iminente, o ambicioso jogo de corrida arcade de mundo aberto Forza…

2 horas atrás

As placas gráficas Radeon RX 6000 e RX 7000 receberão suporte para o escalonamento AMD FSR 4.1.

A AMD atendeu aos pedidos insistentes dos jogadores para fornecer suporte à tecnologia de escalonamento…

2 horas atrás

Amazon cancela MMO de Senhor dos Anéis, mas já tem um novo jogo “emocionante”.

A pedido do Eurogamer, Jeff Grattis, chefe da divisão de jogos da Amazon, comentou sobre…

3 horas atrás

A MSI lançará uma GeForce RTX 5080 em edição muito limitada, inspirada em “The Mandalorian e Grogu”.

A MSI apresentou a placa de vídeo GeForce RTX 5080 16GB OC em uma edição…

3 horas atrás

A Anthropic afirmou que a IA já escreve mais de 90% do seu código.

É como se as empresas de tecnologia estivessem numa corrida para ver quem consegue fazer…

3 horas atrás