IA aprendeu a hackear usando imagens com um truque invisível para os humanos

Um estudo de cientistas americanos mostrou que os modernos sistemas de inteligência artificial capazes de analisar imagens são vulneráveis ​​à manipulação por meio do canal alfa em arquivos de imagens – conjunto de dados responsável por sua transparência.

Fonte da imagem: Google DeepMind/unsplash.com

Pesquisadores da Universidade do Texas em San Antonio descobriram que o canal alfa, que controla a transparência da imagem, é frequentemente ignorado na criação de ferramentas de análise de IA. E poderá tornar-se um veículo para ataques cibernéticos a sistemas médicos e de piloto automático. Para provar a sua tese, uma equipa de cientistas liderada pela Professora Associada Guinevere Chen desenvolveu um método de ataque AlphaDog que explora esta vulnerabilidade em sistemas de IA. Por causa do canal alfa, os humanos e a IA podem perceber as imagens de maneira muito diferente.

Os cientistas criaram 6.500 imagens e as testaram em 100 modelos de IA, incluindo 80 sistemas de código aberto e 20 plataformas em nuvem, como ChatGPT. Os testes mostraram que o esquema AlphaDog é particularmente eficaz contra ataques em regiões de imagens em tons de cinza. O modelo de IA subjacente aos sistemas de piloto automático é vulnerável – o canal alfa permite a manipulação de algoritmos de reconhecimento de sinais de trânsito que contêm fragmentos em tons de cinza. Como resultado, os sinais de trânsito podem ser reconhecidos incorretamente e existe o risco de consequências graves.

Outro alvo potencial de ataque são os sistemas de imagens médicas nos quais a IA ajuda no diagnóstico. Aqui, os resultados de raios X, ressonância magnética e tomografia computadorizada são frequentemente apresentados em tons de cinza e também podem ser manipulados usando o AlphaDog, que ameaça fazer um diagnóstico deliberadamente incorreto. Por fim, o esquema de ataque proposto pelos cientistas é eficaz contra sistemas de reconhecimento facial – isso pode levar a problemas com a privacidade das pessoas e com a segurança dos objetos protegidos. Os autores do estudo partilharam as suas descobertas com grandes empresas tecnológicas, incluindo Google, Amazon e Microsoft, para ajudar a resolver as vulnerabilidades identificadas nos sistemas de IA.

avalanche

Postagens recentes

Pronto para a missão: o thriller de espionagem 007 First Light, dos criadores de Hitman, alcançou o status gold duas semanas antes do lançamento.

O ambicioso thriller de espionagem 007 First Light, da desenvolvedora dinamarquesa IO Interactive (da série…

5 horas atrás

Um asteroide do tamanho de uma casa passará perto da Terra na próxima semana – ele estará quatro vezes mais perto do que a Lua.

Na segunda-feira, 18 de maio, um asteroide descoberto há poucos dias passará perto da Terra,…

5 horas atrás

O setor de tecnologia foi atingido por uma onda de demissões, com mais de 100 mil funcionários perdendo seus empregos desde o início do ano.

No início de maio, o número de demissões no setor de tecnologia ultrapassou 100 mil…

6 horas atrás

A Microsoft corrigiu um bug no Windows Autopatch que fazia com que os drivers fossem atualizados sem permissão.

A Microsoft corrigiu um bug no Windows Autopatch que fazia com que alguns dispositivos Windows…

6 horas atrás

A primeira bateria de gravidade da África será construída na África do Sul.

A empresa estatal sul-africana de energia elétrica, Eskom, anunciou o lançamento de um dos projetos…

7 horas atrás

A Devolver Digital anunciou The Talos Principle 3, o grande final da trilogia de quebra-cabeças filosóficos dos criadores de Serious Sam.

A editora Devolver Digital e a desenvolvedora Croteam (série Serious Sam) anunciaram The Talos Principle…

7 horas atrás