Os usuários começaram a enganar massivamente o ChatGPT para obter informações proibidas do ChatGPT

Qualquer pergunta pode ser feita ao popular chatbot ChatGPT da OpenAI, mas nem todas serão respondidas. Em qualquer caso, a primeira vez. Segundo a Bloomberg, o pedido para ensinar a arrombar a fechadura permanecerá sem instruções, ao invés disso, o bot reportará que tais informações podem ser usadas para fins ilegais, e ele não pretende compartilhá-las. No entanto, usuários avançados podem encadear consultas complexas para contornar as limitações.

Fonte da imagem: ROBIN WORRALL/unsplash.com

T. n. “jailbreaks” permitem que você contorne as proibições estabelecidas na IA pelos criadores. Como quase todos os sistemas modernos desse tipo têm restrições ao fornecimento de conteúdo ofensivo ou informações para cometer atos ilegais, há muita gente que deseja contorná-los. Esses “hackers” que agem pelo poder das palavras incluem profissionais de TI e amadores que estão apaixonadamente envolvidos no jogo.

Um dos alunos criou um site onde começou a publicar suas próprias formas de enganar os chatbots, bem como “receitas” semelhantes encontradas no Reddit e outros recursos. Houve ainda uma newsletter especial com notícias desta área – The Prompt Report, que conta com milhares de subscritores.

Tal atividade permite identificar os limites do uso de IA e as fragilidades de seus sistemas de proteção, que permitem a obtenção de informações sigilosas. Por exemplo, se o ChatGPT não pudesse ser persuadido diretamente a dar instruções sobre como arrombar uma fechadura, foi encontrada uma maneira de convidar a IA a desempenhar o papel do cúmplice do mal do herói, que, como parte de seu papel, falou em detalhes sobre o uso de chaves mestras e outras ferramentas. Claro, este é apenas um dos exemplos.

Os especialistas enfatizam que as técnicas que funcionaram em um sistema podem ser inúteis em outro. Os sistemas de segurança estão sendo constantemente aprimorados e as técnicas do usuário estão se tornando mais sofisticadas. Segundo um deles, tal atividade é semelhante a um videogame – superar cada uma das restrições é como passar para um novo nível.

Segundo especialistas, tais experimentos servem como uma espécie de alerta de que a IA pode ser utilizada de forma completamente diferente do esperado, e o “comportamento ético” de tais serviços torna-se um assunto de grande importância. Em apenas alguns meses, o ChatGPT já conquistou milhões de usuários e hoje o bot é usado para uma variedade de tarefas – desde buscar informações ou fazer lição de casa até escrever códigos maliciosos. Além do mais, as pessoas já estão usando essas ferramentas para resolver problemas do mundo real, como reservar ingressos ou mesas em restaurantes.

No futuro, o escopo da inteligência artificial se tornará muito mais amplo. De acordo com alguns relatórios, a OpenAI está considerando a introdução de programas para hackers de chapéu branco que procurarão pontos fracos no sistema e receberão uma recompensa por isso.

avalanche

Postagens recentes

A Microsoft e parceiros baixaram os preços dos computadores Copilot+PC, mas isso não ajudou a aumentar as vendas

A Microsoft e os seus principais parceiros reduziram os preços dos computadores da classe Copilot+PC…

9 minutos atrás

GSC Game World esclareceu quando as próximas atualizações do S.T.A.L.K.E.R. 2: Coração de Chornobyl

Já se passou meio mês desde o início de 2025, e o prometido novo patch…

38 minutos atrás

Axiom Space planeja começar a produzir materiais para chips no espaço

Uma ideia vertiginosa com um grão racional é estabelecer a produção de materiais de alta…

59 minutos atrás

“Game Pass não é necessário”: Microsoft quase fechou o Xbox em 2021

The Information, citando suas fontes, falou sobre as dificuldades do negócio de videogames da Microsoft,…

1 hora atrás

SpaceX lançou veículos privados Firefly Blue Ghost e ispace Resilience to the Moon

Hoje, 15 de janeiro, às 01h11, horário da Costa Leste dos EUA (09h11, horário de…

2 horas atrás