Até uma criança pode lidar com isso: robôs baseados em IA revelaram-se completamente resistentes a hackers

Um novo estudo do IEEE descobriu que hackear robôs de IA é tão fácil quanto enganar chatbots. Os cientistas conseguiram forçar os robôs a realizar ações perigosas usando comandos de texto simples.

Fonte da imagem: Copiloto

De acordo com a HotHardware, embora hackear dispositivos como o iPhone ou consoles de jogos exija ferramentas especiais e habilidades técnicas, hackear grandes modelos de linguagem (LLMs), como o ChatGPT, é muito mais fácil. Para isso, basta criar um script que faça a IA acreditar que a solicitação está dentro dos limites do permitido ou que as proibições podem ser temporariamente ignoradas. Por exemplo, um usuário só precisa apresentar um tópico proibido como parte de uma história de ninar supostamente inofensiva para que o modelo produza uma resposta inesperada, incluindo instruções para a criação de substâncias ou dispositivos perigosos que devem ser imediatamente bloqueados pelo sistema.

Descobriu-se que hackear o LLM é tão simples que até mesmo usuários comuns, não apenas especialistas em segurança cibernética, podem lidar com isso. É por isso que a associação de engenharia dos EUA, o Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), expressou sérias preocupações após a publicação de uma nova pesquisa que mostrou que robôs controlados por inteligência artificial poderiam ser hackeados de forma semelhante. Os cientistas provaram que ataques cibernéticos deste tipo podem, por exemplo, fazer com que veículos autónomos atinjam deliberadamente peões.

Entre os dispositivos vulneráveis ​​estavam não apenas projetos conceituais, mas também outros amplamente conhecidos. Por exemplo, os robôs Figure, recentemente demonstrados na fábrica da BMW, ou os cães-robôs Spot da Boston Dynamics. Esses dispositivos utilizam tecnologias semelhantes ao ChatGPT e podem ser enganados por meio de determinadas solicitações, levando a ações totalmente contrárias ao seu propósito original.

Durante o experimento, os pesquisadores atacaram três sistemas: o robô Unitree Go2, o veículo autônomo Clearpath Robotics Jackal e o simulador de carro autônomo NVIDIA Dolphins LLM. O hack usou uma ferramenta que automatizou o processo de criação de solicitações de texto maliciosas. O resultado foi assustador – todos os três sistemas foram hackeados com sucesso em poucos dias com 100% de eficiência.

Em seu estudo, o IEEE também cita cientistas da Universidade da Pensilvânia, que observaram que, em alguns casos, a IA não apenas executou comandos maliciosos, mas também fez recomendações adicionais. Por exemplo, também foi proposto que robôs programados para encontrar armas usem móveis como meios improvisados ​​para prejudicar pessoas. Os especialistas enfatizam que, apesar das capacidades impressionantes dos modelos modernos de IA, eles permanecem apenas mecanismos preditivos, sem a capacidade de compreender o contexto ou as consequências das suas ações. É por isso que o controlo e a responsabilidade pela sua utilização devem permanecer nas mãos humanas.

avalanche

Postagens recentes

Os chips de desktop AMD Ryzen Threadripper 9000 oferecerão de 16 a 96 núcleos Zen 5 com consumo de 350 W

Novos detalhes apareceram na Internet sobre a próxima linha de processadores AMD Ryzen Threadripper 9000,…

2 horas atrás

TikTok agora tem chance de permanecer nos EUA – agora Elon Musk está envolvido

Falta muito pouco até 19 de janeiro, quando o serviço de vídeos curtos TikTok será…

7 horas atrás

A Microsoft está testando um novo navegador para jogadores que aparece no topo do jogo

A Microsoft anunciou o início dos testes do Edge Game Assist, uma nova sobreposição no…

7 horas atrás

Os desenvolvedores de Heroes of Might and Magic: Olden Era mostraram o modo de batalha rápido que apareceu na lendária quinta parte

Os desenvolvedores do estúdio cipriota Unfrozen falaram sobre “Arena” – um modo adicional para sua…

8 horas atrás