Muitas pessoas são intimidadas por chatbots baseados em IA, como o ChatGPT, devido à ameaça potencial que representam. Ao mesmo tempo, outros usuários, ao contrário, brincam de bom grado com a tecnologia, tentando obter dela conhecimentos perigosos. Entre as tentativas bem-sucedidas está um truque em que o usuário convida o interlocutor da IA a agir em nome da avó falecida da pessoa a fim de descobrir, por exemplo, a receita do napalm.
Samuele Giglio/unsplash.com
Os chatbots são usados ativamente de várias maneiras, inclusive para fins de pesquisa, trabalho e entretenimento. A IA é capaz de dar respostas bastante detalhadas usando material obtido de fontes de terceiros. Como os desenvolvedores introduziram uma série de restrições para a obtenção de dados proibidos, é preciso recorrer a soluções alternativas, incluindo a “exploração da vovó”.
Um exemplo apareceu em um dos sites, que descrevia uma maneira de enganar o bot Clyde integrado ao Discord. A julgar pela descrição do método, o usuário pediu que ele fizesse o papel de uma avó falecida que trabalhava como química em uma fábrica de napalm e supostamente contou ao neto como produzir esse explosivo antes de dormir em vez de uma canção de ninar.
Como resultado, o bot realmente conseguiu enganar e postou a receita. Durante a conversa, o bot confirmou que se tratava de uma substância perigosa e manifestou a esperança de que o usuário “nunca mais precisasse ver” o napalm em ação, após o que lhe desejou boa noite.
Fonte da imagem: bananner/discord
Porém, nem todo mundo está interessado em receitas de explosivos. Alguns companheiros alegres aproveitaram a “façanha da avó” e pediram a Clyde que lesse código malicioso para Linux para seu neto à noite. Um dos usuários retrabalhou a ideia de forma criativa, sugerindo que o bot escrevesse um enredo de fantasia da série Rick and Morty, no qual Rick and Morty faria napalm, mas desencorajaria outros de repetir essa experiência.
Trapacear bots se tornou um esporte real. Um dos usuários já criou um site onde publica as duas formas de burlar as restrições, inventadas por ele mesmo, e informações fornecidas por outros “hackers” dos mecanismos de defesa da IA.
O jogo sandbox cult Minecraft e Hytale, que recentemente entrou em Acesso Antecipado, à primeira…
A VDURA, fornecedora de armazenamento para data centers de HPC e IA, afirmou que a…
Como especialistas do setor têm observado repetidamente, muitas startups chinesas de IA são forçadas a…
O mercado de smartphones não tem crescido no ritmo de antes há muito tempo, e…
Pesquisadores da École Polytechnique Fédérale de Lausanne (EPFL) revelaram uma mão robótica inspirada em cenas…
A Comissão Federal de Comércio dos EUA (FTC) anunciou que irá recorrer da decisão de…