Pessoas através da “exploração da avó” forçaram bots de IA a escrever vírus no Linux e compartilhar informações proibidas

Muitas pessoas são intimidadas por chatbots baseados em IA, como o ChatGPT, devido à ameaça potencial que representam. Ao mesmo tempo, outros usuários, ao contrário, brincam de bom grado com a tecnologia, tentando obter dela conhecimentos perigosos. Entre as tentativas bem-sucedidas está um truque em que o usuário convida o interlocutor da IA ​​a agir em nome da avó falecida da pessoa a fim de descobrir, por exemplo, a receita do napalm.

Samuele Giglio/unsplash.com

Os chatbots são usados ​​ativamente de várias maneiras, inclusive para fins de pesquisa, trabalho e entretenimento. A IA é capaz de dar respostas bastante detalhadas usando material obtido de fontes de terceiros. Como os desenvolvedores introduziram uma série de restrições para a obtenção de dados proibidos, é preciso recorrer a soluções alternativas, incluindo a “exploração da vovó”.

Um exemplo apareceu em um dos sites, que descrevia uma maneira de enganar o bot Clyde integrado ao Discord. A julgar pela descrição do método, o usuário pediu que ele fizesse o papel de uma avó falecida que trabalhava como química em uma fábrica de napalm e supostamente contou ao neto como produzir esse explosivo antes de dormir em vez de uma canção de ninar.

Como resultado, o bot realmente conseguiu enganar e postou a receita. Durante a conversa, o bot confirmou que se tratava de uma substância perigosa e manifestou a esperança de que o usuário “nunca mais precisasse ver” o napalm em ação, após o que lhe desejou boa noite.

Fonte da imagem: bananner/discord

Porém, nem todo mundo está interessado em receitas de explosivos. Alguns companheiros alegres aproveitaram a “façanha da avó” e pediram a Clyde que lesse código malicioso para Linux para seu neto à noite. Um dos usuários retrabalhou a ideia de forma criativa, sugerindo que o bot escrevesse um enredo de fantasia da série Rick and Morty, no qual Rick and Morty faria napalm, mas desencorajaria outros de repetir essa experiência.

Trapacear bots se tornou um esporte real. Um dos usuários já criou um site onde publica as duas formas de burlar as restrições, inventadas por ele mesmo, e informações fornecidas por outros “hackers” dos mecanismos de defesa da IA.

avalanche

Postagens recentes

A BYD apresentou o carro elétrico Denza Z9 GT com uma autonomia recorde de 1.036 km.

Uma atualização recente equipou o cupê elétrico Denza Z9 GT com a mais recente bateria…

19 minutos atrás

As autoridades americanas irão proibir a compra de determinados produtos semicondutores chineses para fins governamentais.

As tentativas periódicas de obter concessões para as exportações de semicondutores dos EUA para a…

55 minutos atrás

O CEO do Google poderá faturar US$ 692 milhões nos próximos três anos se o serviço de táxi autônomo da Waymo decolar.

Tradicionalmente, os executivos de empresas de capital aberto recebem remuneração não apenas em dinheiro, mas…

1 hora atrás

A Anthropic lançou uma plataforma para vender aplicativos construídos com base em seus modelos, seguindo o modelo da Amazon.

A Anthropic lançou o Anthropic Marketplace, uma plataforma que permitirá que clientes corporativos comprem aplicativos…

2 horas atrás

A Samsung planeja oferecer uma ferramenta de codificação Vibe para usuários de smartphones Galaxy.

Na era do rápido desenvolvimento da inteligência artificial generativa, o desenvolvimento de software exige apenas…

3 horas atrás