Os usuários começaram a enganar massivamente o ChatGPT para obter informações proibidas do ChatGPT

Qualquer pergunta pode ser feita ao popular chatbot ChatGPT da OpenAI, mas nem todas serão respondidas. Em qualquer caso, a primeira vez. Segundo a Bloomberg, o pedido para ensinar a arrombar a fechadura permanecerá sem instruções, ao invés disso, o bot reportará que tais informações podem ser usadas para fins ilegais, e ele não pretende compartilhá-las. No entanto, usuários avançados podem encadear consultas complexas para contornar as limitações.

Fonte da imagem: ROBIN WORRALL/unsplash.com

T. n. “jailbreaks” permitem que você contorne as proibições estabelecidas na IA pelos criadores. Como quase todos os sistemas modernos desse tipo têm restrições ao fornecimento de conteúdo ofensivo ou informações para cometer atos ilegais, há muita gente que deseja contorná-los. Esses “hackers” que agem pelo poder das palavras incluem profissionais de TI e amadores que estão apaixonadamente envolvidos no jogo.

Um dos alunos criou um site onde começou a publicar suas próprias formas de enganar os chatbots, bem como “receitas” semelhantes encontradas no Reddit e outros recursos. Houve ainda uma newsletter especial com notícias desta área – The Prompt Report, que conta com milhares de subscritores.

Tal atividade permite identificar os limites do uso de IA e as fragilidades de seus sistemas de proteção, que permitem a obtenção de informações sigilosas. Por exemplo, se o ChatGPT não pudesse ser persuadido diretamente a dar instruções sobre como arrombar uma fechadura, foi encontrada uma maneira de convidar a IA a desempenhar o papel do cúmplice do mal do herói, que, como parte de seu papel, falou em detalhes sobre o uso de chaves mestras e outras ferramentas. Claro, este é apenas um dos exemplos.

Os especialistas enfatizam que as técnicas que funcionaram em um sistema podem ser inúteis em outro. Os sistemas de segurança estão sendo constantemente aprimorados e as técnicas do usuário estão se tornando mais sofisticadas. Segundo um deles, tal atividade é semelhante a um videogame – superar cada uma das restrições é como passar para um novo nível.

Segundo especialistas, tais experimentos servem como uma espécie de alerta de que a IA pode ser utilizada de forma completamente diferente do esperado, e o “comportamento ético” de tais serviços torna-se um assunto de grande importância. Em apenas alguns meses, o ChatGPT já conquistou milhões de usuários e hoje o bot é usado para uma variedade de tarefas – desde buscar informações ou fazer lição de casa até escrever códigos maliciosos. Além do mais, as pessoas já estão usando essas ferramentas para resolver problemas do mundo real, como reservar ingressos ou mesas em restaurantes.

No futuro, o escopo da inteligência artificial se tornará muito mais amplo. De acordo com alguns relatórios, a OpenAI está considerando a introdução de programas para hackers de chapéu branco que procurarão pontos fracos no sistema e receberão uma recompensa por isso.

avalanche

Postagens recentes

O escritório da Microsoft no Cazaquistão será expandido para um hub multirregional

O Ministério do Desenvolvimento Digital, Inovação e Indústria Aeroespacial (ICDIAP) e o Consulado Geral do…

3 minutos atrás

Windows 11 tem uma nova maneira de fechar programas congelados

Programas suspensos no Windows podem causar muitos problemas. Ao mesmo tempo, clicar na cruz no…

1 hora atrás

Half-Life completo: Alyx completamente sem VR tornou-se possível graças um novo mod

O portal Wccftech notou que a atualização recente da modificação HLA-NoVR permite que você conclua…

2 horas atrás

NVIDIA lançará GeForce RTX 4070 Founders Edition – a placa de vídeo apareceu na foto

A placa gráfica GeForce RTX 4070 Ti não está disponível na NVIDIA Founders Edition (FE).…

3 horas atrás