Cientistas fizeram a IA ver o que não existe – a visão computacional se mostrou vulnerável

Pesquisadores da Universidade da Carolina do Norte demonstraram uma nova maneira de atacar sistemas de visão computacional que lhes permite controlar o que a inteligência artificial “vê”. O método que eles usaram, chamado RisingAttacK, foi eficaz na manipulação de todos os sistemas de visão computacional mais utilizados.

Fonte da imagem: unsplash.com

RisingAttacK é um chamado “ataque adversário” que manipula os dados enviados a um sistema de IA. O RisingAttacK consiste em uma série de operações que visam fazer a menor alteração possível em uma imagem que possa confundir as habilidades cognitivas da IA. Como resultado, a IA pode identificar incorretamente a cor de um semáforo ou fazer um diagnóstico incorreto de um raio-X.

Primeiro, o RisingAttacK identifica todos os recursos visuais de uma imagem e tenta determinar qual deles é mais importante para atingir o objetivo do ataque. Em seguida, o RisingAttacK calcula a sensibilidade do sistema de IA a mudanças nos principais recursos identificados.

«”Isso requer algum poder computacional, mas nos permite fazer alterações muito pequenas e direcionadas em recursos-chave que tornam o ataque bem-sucedido”, disse Tianfu Wu, professor associado de engenharia elétrica e de computação na Universidade da Carolina do Norte. “Como resultado, duas imagens podem parecer iguais ao olho humano, e podemos ver claramente o carro em ambas. Mas, graças ao RisingAttacK, a IA verá o carro na primeira imagem, mas não na segunda.”

Fonte da imagem: Tri-Star Pictures

Os pesquisadores testaram o método RisingAttacK em quatro dos programas de visão computacional mais utilizados: ResNet-50, DenseNet-121, ViTB e DEiT-B. O método foi eficaz na manipulação de todos os quatro programas.

«“Queríamos encontrar uma maneira eficaz de hackear sistemas de visão computacional com IA, porque esses sistemas são frequentemente usados ​​em contextos que podem impactar a saúde e a segurança humana, desde veículos autônomos até tecnologia médica e aplicações de segurança”, explicou Wu. “Identificar vulnerabilidades é um passo importante para proteger esses sistemas.”

«Embora tenhamos demonstrado a capacidade do RisingAttacK de manipular modelos de visão, estamos atualmente no processo de determinar a eficácia desse método em ataques a outros sistemas de IA, como modelos de linguagem de grande porte. No futuro, nosso objetivo é desenvolver métodos que possam se defender com sucesso contra esses ataques”, concluiu.

A equipe de pesquisa disponibilizou publicamente o código RisingAttacK para estudo e testes.

admin

Postagens recentes

Na China, foi criado um robô vestível que transforma humanos em centauros e ajuda a carregar cargas.

Engenheiros chineses da Universidade de Ciência e Tecnologia do Sul, em Shenzhen, desenvolveram um robô…

28 minutos atrás

Como abastecer um tanque: a BYD apresentou um carro elétrico que carrega em 12 minutos.

No ano passado, a montadora chinesa BYD ultrapassou a Tesla e se tornou a maior…

38 minutos atrás

A versão para Nintendo Switch agradou-lhe: a nova demo de Elden Ring para Nintendo Switch 2 surpreendeu positivamente os jornalistas.

A reação negativa à demonstração de Elden Ring, o RPG de ação em mundo aberto,…

1 hora atrás

O FBI está à procura de vítimas de jogos trojan distribuídos no Steam.

O FBI emitiu um alerta buscando potenciais vítimas de um cibercriminoso que vem distribuindo código…

3 horas atrás

Surgiu um serviço que transforma o YouTube em televisão por cabo.

Na era das plataformas de streaming de vídeo, as pessoas se libertaram das imposições da…

3 horas atrás

Microsoft, Intel e Nvidia enfrentaram dois grandes desafios no mundo dos jogos para PC.

A Microsoft, em parceria com a Intel e a Nvidia, está trabalhando em dois novos…

3 horas atrás