odyznmm1zdywzwm2zmu4nznhntu2zthmmdi4owe0m2jhmdziyjg0ztixnzuzzjzkodcxzjq4mzgwzmvmmja4mq-1241389

A Trend Micro, uma empresa de segurança da informação, fez parceria com o Instituto de Pesquisa Interregional das Nações Unidas e a Europol para produzir um relatório intitulado “O Uso Malicioso e Abuso de Inteligência Artificial”. Nele, eles falaram sobre como os cibercriminosos estão usando IA agora, e quais opções para seu uso podem aparecer no futuro.

Atualmente, algoritmos de IA são usados ​​para criar deepfakes, imagens falsas ou vídeos baseados em imagens reais. Deepfakes pode ser usado para criar evidências incriminatórias e subsequente extorsão, falsificação, disseminação de informações falsas e manipulação da opinião pública.

A IA também é usada para melhorar a eficácia do software malicioso. Essa atividade não é comum, mas é claro que isso pode mudar no futuro. Nesse caso, o algoritmo de IA atua como uma espécie de suplemento a um sistema malicioso já existente e é usado para aumentar sua capacidade de contornar os sistemas de segurança. “Os sistemas baseados em IA já estão sendo desenvolvidos para melhorar a eficácia do malware e impedir o funcionamento de tecnologias antivírus e de reconhecimento facial”, disse o relatório.

Outra área de uso de IA está associada à adivinhação de senha eficaz e quebra de CAPTCHA em ataques automatizados. Observa-se que a IA em breve será usada em videogames para gerar códigos de trapaça ou outras atividades fraudulentas que melhoram a eficiência do jogo e ajudam a ganhar dinheiro.

Os algoritmos de IA também podem ser uma ferramenta poderosa para analisar grandes quantidades de dados para extrair números de telefone e de cartão de crédito. Além disso, tais sistemas podem, além do texto, analisar imagens e vídeos que contenham texto. Os especialistas acreditam que, no futuro, a IA será ativamente usada em fraudes de engenharia social, bem como em esquemas de discagem automática. Os sistemas de IA capazes de imitar uma voz humana também podem ser usados ​​para criar mensagens de voz usando a voz de alguém conhecido da vítima.

A IA também pode se tornar uma ferramenta eficaz para enganar os sistemas de reconhecimento de imagem, bem como realizar todos os tipos de fraude financeira, incluindo a manipulação do mercado de ações e o mascaramento de negociações privilegiadas. Dada a crescente popularidade das criptomoedas, podem surgir no futuro algoritmos para conduzir transações ilegais com ativos digitais.

Segundo os autores do relatório, tudo isso provavelmente é uma questão para o futuro, uma vez que tais sistemas estão apenas em desenvolvimento ou ainda estão em fase de discussão da possibilidade de criação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *