Um novo estudo do IEEE descobriu que hackear robôs de IA é tão fácil quanto enganar chatbots. Os cientistas conseguiram forçar os robôs a realizar ações perigosas usando comandos de texto simples.

Fonte da imagem: Copiloto

De acordo com a HotHardware, embora hackear dispositivos como o iPhone ou consoles de jogos exija ferramentas especiais e habilidades técnicas, hackear grandes modelos de linguagem (LLMs), como o ChatGPT, é muito mais fácil. Para isso, basta criar um script que faça a IA acreditar que a solicitação está dentro dos limites do permitido ou que as proibições podem ser temporariamente ignoradas. Por exemplo, um usuário só precisa apresentar um tópico proibido como parte de uma história de ninar supostamente inofensiva para que o modelo produza uma resposta inesperada, incluindo instruções para a criação de substâncias ou dispositivos perigosos que devem ser imediatamente bloqueados pelo sistema.

Descobriu-se que hackear o LLM é tão simples que até mesmo usuários comuns, não apenas especialistas em segurança cibernética, podem lidar com isso. É por isso que a associação de engenharia dos EUA, o Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), expressou sérias preocupações após a publicação de uma nova pesquisa que mostrou que robôs controlados por inteligência artificial poderiam ser hackeados de forma semelhante. Os cientistas provaram que ataques cibernéticos deste tipo podem, por exemplo, fazer com que veículos autónomos atinjam deliberadamente peões.

Entre os dispositivos vulneráveis ​​estavam não apenas projetos conceituais, mas também outros amplamente conhecidos. Por exemplo, os robôs Figure, recentemente demonstrados na fábrica da BMW, ou os cães-robôs Spot da Boston Dynamics. Esses dispositivos utilizam tecnologias semelhantes ao ChatGPT e podem ser enganados por meio de determinadas solicitações, levando a ações totalmente contrárias ao seu propósito original.

Durante o experimento, os pesquisadores atacaram três sistemas: o robô Unitree Go2, o veículo autônomo Clearpath Robotics Jackal e o simulador de carro autônomo NVIDIA Dolphins LLM. O hack usou uma ferramenta que automatizou o processo de criação de solicitações de texto maliciosas. O resultado foi assustador – todos os três sistemas foram hackeados com sucesso em poucos dias com 100% de eficiência.

Em seu estudo, o IEEE também cita cientistas da Universidade da Pensilvânia, que observaram que, em alguns casos, a IA não apenas executou comandos maliciosos, mas também fez recomendações adicionais. Por exemplo, também foi proposto que robôs programados para encontrar armas usem móveis como meios improvisados ​​para prejudicar pessoas. Os especialistas enfatizam que, apesar das capacidades impressionantes dos modelos modernos de IA, eles permanecem apenas mecanismos preditivos, sem a capacidade de compreender o contexto ou as consequências das suas ações. É por isso que o controlo e a responsabilidade pela sua utilização devem permanecer nas mãos humanas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *