ntljndi0ogexnjywzja0nmrjzjnjmdi0mty0ztkxzgu1mjqxmgzlywqwmzuyyjgwmzm3m2qwymrlyjjjnzljyq-9325084

Para o Facebook, deepfakes (imagens falsas criadas pela IA) não são um grande problema no momento, mas a empresa continua a financiar pesquisas relacionadas a essa tecnologia para poder se defender contra ameaças potenciais no futuro. Um dos últimos trabalhos nessa direção foi realizado em conjunto com cientistas da Universidade de Michigan. Uma equipe de especialistas desenvolveu um método para descompilar deepfakes.

Os especialistas explicam que sua tecnologia permite analisar imagens criadas por algoritmos de IA e revelar as características de identificação do modelo de aprendizado de máquina com o qual uma determinada falsificação foi criada.

O programa é útil porque, no futuro, poderá ajudar o Facebook a rastrear cibercriminosos que distribuem deepfakes para vários fins criminosos. Por exemplo, os usuários podem ser chantageados com fotos ou vídeos íntimos falsos. Observa-se que o desenvolvimento do descompilador deepfake ainda não foi concluído, portanto, o programa ainda não está pronto para implantação.

Pesquisas anteriores nesta área nos permitiram determinar quais dos modelos de IA conhecidos geraram um deepfake específico, mas um novo desenvolvimento de especialistas do Facebook e da Michigan State University é mais adequado para uso prático. Ele permite que você defina os recursos arquitetônicos de sistemas para a criação de deepfakes com base em modelos desconhecidos. Essas características, conhecidas como hiperparâmetros, estão presentes em todos os modelos de aprendizado de máquina. Juntos, eles criam uma impressão digital exclusiva na imagem final, que pode então ser usada para identificar a origem do deepfake.

De acordo com Tal Hassner, especialista líder do Facebook, que está envolvido no projeto do descompilador deepfake, a capacidade de identificar as peculiaridades de modelos desconhecidos é muito importante porque o software deepfake é muito fácil de alterar, o que permite que os invasores encobram seus rastros com eficácia.

ntdmywyxntu4nwvindfmywy1nzrjnmfizja2mzrhnza2yzk0odewyjy3odviztc3nzk3zgyzmtjkngqxzdaymgsm-fake_ai_faces-750-4573883

Humanos extintos criados por software de geração de deepfake (Imagem: The Verge)

«Suponha que um invasor crie muitos deepfakes diferentes e os carregue em diferentes plataformas sob o disfarce de diferentes usuários. Se um novo modelo de IA fosse usado para criar deepfakes, que ninguém tinha visto antes, seria impossível descobrir todos os detalhes relacionados à criação da imagem. Com a nova tecnologia, podemos determinar que a imagem enviada para diferentes plataformas foi gerada pelo mesmo modelo de aprendizado de máquina. E tendo acesso ao PC no qual esta imagem foi criada, podemos apontar com segurança o culpado ”, explicou Hassner.

Hassner compara seu desenvolvimento ao método de análise forense usado para determinar o modelo da câmera com a qual as fotos foram tiradas. A essência da análise é buscar determinados padrões ou defeitos ópticos criados apenas por um modelo específico de câmera nessas imagens.

«Nem todos podem criar suas próprias câmeras, mas qualquer pessoa com experiência suficiente e acesso a um PC comum pode criar seu próprio modelo para gerar deepfakes ”, acrescenta Hassner.

O algoritmo, criado por cientistas da Universidade de Michigan e do Facebook, é capaz não só de determinar as características de um modelo gerador específico, mas também de descobrir quais dos modelos conhecidos poderiam ser usados ​​para criar um deepfake e se a imagem apresentada é uma farsa. Segundo Hassner, o sistema tem um índice de eficiência muito alto. No entanto, ele não fornece valores exatos.

Deve-se notar que mesmo os algoritmos mais modernos para detecção de deepfakes estão longe de ser perfeitos. E os próprios especialistas, que tratam desse assunto, estão bem cientes disso. Quando o Facebook fez um concurso para encontrar deepfakes no ano passado, o vencedor foi um algoritmo que só conseguia determinar se as imagens eram imprecisas 65,18% das vezes. Em parte, isso se deve ao fato de que o campo de desenvolvimento de IA generativa é muito ativo. Novos métodos são publicados quase todos os dias e os filtros de reconhecimento simplesmente não conseguem acompanhá-los.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *