Até uma criança pode lidar com isso: robôs baseados em IA revelaram-se completamente resistentes a hackers

Um novo estudo do IEEE descobriu que hackear robôs de IA é tão fácil quanto enganar chatbots. Os cientistas conseguiram forçar os robôs a realizar ações perigosas usando comandos de texto simples.

Fonte da imagem: Copiloto

De acordo com a HotHardware, embora hackear dispositivos como o iPhone ou consoles de jogos exija ferramentas especiais e habilidades técnicas, hackear grandes modelos de linguagem (LLMs), como o ChatGPT, é muito mais fácil. Para isso, basta criar um script que faça a IA acreditar que a solicitação está dentro dos limites do permitido ou que as proibições podem ser temporariamente ignoradas. Por exemplo, um usuário só precisa apresentar um tópico proibido como parte de uma história de ninar supostamente inofensiva para que o modelo produza uma resposta inesperada, incluindo instruções para a criação de substâncias ou dispositivos perigosos que devem ser imediatamente bloqueados pelo sistema.

Descobriu-se que hackear o LLM é tão simples que até mesmo usuários comuns, não apenas especialistas em segurança cibernética, podem lidar com isso. É por isso que a associação de engenharia dos EUA, o Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), expressou sérias preocupações após a publicação de uma nova pesquisa que mostrou que robôs controlados por inteligência artificial poderiam ser hackeados de forma semelhante. Os cientistas provaram que ataques cibernéticos deste tipo podem, por exemplo, fazer com que veículos autónomos atinjam deliberadamente peões.

Entre os dispositivos vulneráveis ​​estavam não apenas projetos conceituais, mas também outros amplamente conhecidos. Por exemplo, os robôs Figure, recentemente demonstrados na fábrica da BMW, ou os cães-robôs Spot da Boston Dynamics. Esses dispositivos utilizam tecnologias semelhantes ao ChatGPT e podem ser enganados por meio de determinadas solicitações, levando a ações totalmente contrárias ao seu propósito original.

Durante o experimento, os pesquisadores atacaram três sistemas: o robô Unitree Go2, o veículo autônomo Clearpath Robotics Jackal e o simulador de carro autônomo NVIDIA Dolphins LLM. O hack usou uma ferramenta que automatizou o processo de criação de solicitações de texto maliciosas. O resultado foi assustador – todos os três sistemas foram hackeados com sucesso em poucos dias com 100% de eficiência.

Em seu estudo, o IEEE também cita cientistas da Universidade da Pensilvânia, que observaram que, em alguns casos, a IA não apenas executou comandos maliciosos, mas também fez recomendações adicionais. Por exemplo, também foi proposto que robôs programados para encontrar armas usem móveis como meios improvisados ​​para prejudicar pessoas. Os especialistas enfatizam que, apesar das capacidades impressionantes dos modelos modernos de IA, eles permanecem apenas mecanismos preditivos, sem a capacidade de compreender o contexto ou as consequências das suas ações. É por isso que o controlo e a responsabilidade pela sua utilização devem permanecer nas mãos humanas.

avalanche

Postagens recentes

A Rockstar lançou uma loja de mods paga para GTA V e Red Dead Redemption 2.

Os jogadores há muito suspeitavam que a aquisição da equipe de modding Cfx.re pela Rockstar…

18 minutos atrás

A Intel superou a Samsung, mas ficou atrás da TSMC: a taxa de defeitos da tecnologia de processo 18A da Intel caiu para menos de 40%.

Embora a Intel tenha saído do grupo das três maiores empresas de semicondutores em faturamento…

1 hora atrás

O negócio mais misterioso de 2025: por que a NVIDIA gastou US$ 20 bilhões na Groq?

O acordo da NVIDIA com a startup de IA Groq, na prática uma aquisição, levantou…

2 horas atrás

O órgão regulador dos EUA revelou um recurso secreto do remake de Prince of Persia: The Sands of Time, e a Ubisoft está se preparando para anunciá-lo.

Faltando poucos dias para o lançamento esperado do tão aguardado remake do clássico de ação…

2 horas atrás

O ator americano Matthew McConaughey registrou os direitos de suas imagens, que são frequentemente referenciadas em memes.

No ano passado, associações profissionais de atores americanos apoiaram um projeto de lei que proibiria…

2 horas atrás

Um tribunal holandês começou a decidir o destino do controverso Nexperia.

No final de setembro do ano passado, as autoridades holandesas aproveitaram o que consideraram uma…

4 horas atrás