Pesquisadores de segurança cibernética alertaram sobre um novo método pelo qual hackers podem abusar das “alucinações” experimentadas pela inteligência artificial usada no desenvolvimento de software. O esquema, que atualmente existe apenas em teoria, é chamado de “captura alucinatória” (slopsquatting).
Fonte da imagem: socket.dev
Sistemas de IA generativa, incluindo OpenAI ChatGPT e Microsoft Copilot, são propensos a alucinações, onde a IA simplesmente inventa algo que não corresponde à realidade e o passa como informação factual. Ele pode atribuir a uma pessoa palavras que ela não disse; inventar um evento que não aconteceu; ou, ao desenvolver software, referir-se a um produto de código aberto que não existe.
Com o surgimento da IA generativa, muitos desenvolvedores de software passaram a depender fortemente dela ao escrever código. Os chatbots escrevem o código eles mesmos ou oferecem bibliotecas de terceiros ao desenvolvedor para inclusão no projeto. Vale ressaltar que quando ocorrem alucinações, a IA pode inventar repetidamente o mesmo pacote inexistente. Se você encontrar uma solicitação que provoque uma resposta com uma alucinação, estabeleceram especialistas da empresa Socket, e repetir essa solicitação dez vezes, então em 43% dos casos a IA se referirá novamente a um produto de software inexistente e em 39% dos casos não se lembrará dele. No geral, 58% dos pacotes gerados por IA apareceram mais de uma vez a cada dez solicitações, o que é algo que os invasores podem tentar explorar.
O esquema existe apenas em teoria, mas nada impede que hackers identifiquem tal padrão em falhas e criem um pacote de software inexistente ao qual a IA se refere persistentemente – e introduzam código malicioso neste pacote. Após receber uma recomendação da IA, o desenvolvedor abrirá uma das plataformas mais populares, como o GitHub, encontrará o produto especificado e o implantará no projeto, sem saber que se trata de malware. Não houve nenhum incidente relatado do esquema de “tomada de controle alucinatória” sendo usado até agora, mas provavelmente é apenas uma questão de tempo até que eles ocorram. A melhor maneira de se proteger é a mesma de sempre: cautela.
Em um experimento realizado no ano passado, a Anthropic descobriu que modelos de IA podiam…
No evento anual Display Week, em Los Angeles, a Nanosys, desenvolvedora da tecnologia "superquantum dot"…
Esta semana, a Microsoft lançou quatro versões beta do Windows 11 para o programa Windows…
A Administração Nacional de Segurança Rodoviária dos Estados Unidos (NHTSA) abriu uma investigação sobre a…
Em 8 de maio, o Instagram descontinuou a criptografia de ponta a ponta para mensagens…
A Google Play Store é considerada uma plataforma relativamente segura para baixar aplicativos Android, mas…