Engenheiros do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do Instituto de Tecnologia de Massachusetts (MIT) propuseram a tecnologia PhotoGuard, que torna mais difícil para os algoritmos de inteligência artificial modificar imagens.
Os geradores de imagem com inteligência artificial Dall-E e Stable Diffusion são apenas o começo de uma nova era no processamento gráfico. A IA pode não apenas gerar novas fotos, mas também editar as existentes com alta qualidade, deixando espaço para possíveis abusos na forma de deepfakes. Os engenheiros do MIT CSAIL propuseram a tecnologia PhotoGuard para ajudar na proteção contra tais incidentes.
A tecnologia inclui dois métodos de ataques a algoritmos de IA: “encoder” (codificador) e “difusão” (difusão). O primeiro método adiciona uma representação oculta da imagem protegida – a tecnologia altera pixels individuais na imagem de uma maneira especial e não permite que a IA reconheça o conteúdo da imagem, o que significa que bloqueia a capacidade de editá-la.
O segundo método de ataque de “difusão”, mais avançado e com uso intensivo de recursos, mascara uma imagem sob a outra nos “olhos” da IA. Com isso, a IA tenta mudar apenas a imagem que “vê”, mas não toca na original, fazendo com que a imagem que ela gera pareça irreal.