Pessoas através da “exploração da avó” forçaram bots de IA a escrever vírus no Linux e compartilhar informações proibidas

Muitas pessoas são intimidadas por chatbots baseados em IA, como o ChatGPT, devido à ameaça potencial que representam. Ao mesmo tempo, outros usuários, ao contrário, brincam de bom grado com a tecnologia, tentando obter dela conhecimentos perigosos. Entre as tentativas bem-sucedidas está um truque em que o usuário convida o interlocutor da IA ​​a agir em nome da avó falecida da pessoa a fim de descobrir, por exemplo, a receita do napalm.

Samuele Giglio/unsplash.com

Os chatbots são usados ​​ativamente de várias maneiras, inclusive para fins de pesquisa, trabalho e entretenimento. A IA é capaz de dar respostas bastante detalhadas usando material obtido de fontes de terceiros. Como os desenvolvedores introduziram uma série de restrições para a obtenção de dados proibidos, é preciso recorrer a soluções alternativas, incluindo a “exploração da vovó”.

Um exemplo apareceu em um dos sites, que descrevia uma maneira de enganar o bot Clyde integrado ao Discord. A julgar pela descrição do método, o usuário pediu que ele fizesse o papel de uma avó falecida que trabalhava como química em uma fábrica de napalm e supostamente contou ao neto como produzir esse explosivo antes de dormir em vez de uma canção de ninar.

Como resultado, o bot realmente conseguiu enganar e postou a receita. Durante a conversa, o bot confirmou que se tratava de uma substância perigosa e manifestou a esperança de que o usuário “nunca mais precisasse ver” o napalm em ação, após o que lhe desejou boa noite.

Fonte da imagem: bananner/discord

Porém, nem todo mundo está interessado em receitas de explosivos. Alguns companheiros alegres aproveitaram a “façanha da avó” e pediram a Clyde que lesse código malicioso para Linux para seu neto à noite. Um dos usuários retrabalhou a ideia de forma criativa, sugerindo que o bot escrevesse um enredo de fantasia da série Rick and Morty, no qual Rick and Morty faria napalm, mas desencorajaria outros de repetir essa experiência.

Trapacear bots se tornou um esporte real. Um dos usuários já criou um site onde publica as duas formas de burlar as restrições, inventadas por ele mesmo, e informações fornecidas por outros “hackers” dos mecanismos de defesa da IA.

avalanche

Postagens recentes

As startups de IA dos EUA arrecadaram um valor recorde de US$ 150 bilhões em financiamento este ano.

Mesmo a OpenAI, empresa que se autodenomina uma das líderes no segmento de inteligência artificial…

42 minutos atrás

Intel: O Wi-Fi 8 será “sobre confiabilidade e recursos avançados”, e não “sobre velocidade”.

O padrão sem fio Wi-Fi 8 de próxima geração focará menos em aumentos de velocidade…

1 hora atrás

A Meta vai adquirir a startup de IA de Singapura, Manus, que será forçada a romper laços com a China.

O ano passado ficará marcado na história da inteligência artificial pelo triunfo da startup chinesa…

2 horas atrás

O LiveJournal alterou suas regras para publicação pública.

O LiveJournal (LJ) alterou suas regras para publicação de conteúdo na plataforma. Para publicar, comentar…

2 horas atrás

A TSMC iniciou discretamente a produção em massa de chips de 2 nm.

O quarto trimestre deste ano já estava previsto nos planos da TSMC como o período…

6 horas atrás