Engenheiros do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL) do Instituto de Tecnologia de Massachusetts (MIT) propuseram a tecnologia PhotoGuard, que torna mais difícil para os algoritmos de inteligência artificial modificar imagens.

Da esquerda para a direita: imagem original, imagem editada sem proteção, imagem editada com proteção de “codificador”, imagem editada com proteção de “difusão”. Fonte da imagem: MIT

Os geradores de imagem com inteligência artificial Dall-E e Stable Diffusion são apenas o começo de uma nova era no processamento gráfico. A IA pode não apenas gerar novas fotos, mas também editar as existentes com alta qualidade, deixando espaço para possíveis abusos na forma de deepfakes. Os engenheiros do MIT CSAIL propuseram a tecnologia PhotoGuard para ajudar na proteção contra tais incidentes.

A tecnologia inclui dois métodos de ataques a algoritmos de IA: “encoder” (codificador) e “difusão” (difusão). O primeiro método adiciona uma representação oculta da imagem protegida – a tecnologia altera pixels individuais na imagem de uma maneira especial e não permite que a IA reconheça o conteúdo da imagem, o que significa que bloqueia a capacidade de editá-la.

O segundo método de ataque de “difusão”, mais avançado e com uso intensivo de recursos, mascara uma imagem sob a outra nos “olhos” da IA. Com isso, a IA tenta mudar apenas a imagem que “vê”, mas não toca na original, fazendo com que a imagem que ela gera pareça irreal.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *