A pesquisa mostrou que os fraudadores estão usando cada vez mais tecnologias de inteligência artificial (IA) para cometer crimes e contornar os sistemas de segurança. Em particular, o ChatGPT e chatbots semelhantes permitem gerar textos mais confiáveis e competentes para e-mails de phishing. Essas cartas são difíceis de reconhecer com base nos sinais tradicionais de fraude.
De acordo com o jornal de negócios americano The Wall Street Journal, os golpistas estão usando IA para imitar as vozes de pessoas reais e criar os chamados deep fakes – áudio e vídeo falsos. Isso ajuda a se passar por funcionários de bancos, executivos de empresas e exigir transferência de dinheiro ou divulgação de dados confidenciais. De acordo com Matt Neill, ex-agente de inteligência dos EUA, agora é muito mais difícil reconhecer com quem realmente se fala. Os criminosos podem iniciar um diálogo significativo usando as informações pessoais da vítima para aumentar a confiança.
No entanto, os principais bancos dos EUA, incluindo o JPMorgan Chase, estão a desenvolver os seus próprios sistemas de IA para identificar novos esquemas de fraude. Mas os criminosos ainda estão à frente – estão atacando cada vez mais pessoas e os roubos estão se tornando maiores. De acordo com a Comissão Federal de Comércio dos EUA, os americanos perderam um recorde de US$ 10 bilhões para golpistas em 2023, um aumento de US$ 1 bilhão em relação a 2022. No entanto, apenas 5% das vítimas relatam as suas perdas, pelo que os danos reais podem atingir os 200 mil milhões de dólares.
Segundo especialistas, os golpistas estão usando ativamente ferramentas de IA para coletar dados pessoais nas redes sociais. Ao fazê-lo, a IA ajuda a gerar mensagens personalizadas em nome de indivíduos de confiança para persuadir as pessoas a entregar dinheiro ou informações confidenciais. De acordo com uma pesquisa realizada com especialistas de bancos, 70% deles acreditam que os hackers usam a IA de forma mais eficaz do que as instituições financeiras. Além disso, prevê-se que os golpes de inteligência artificial continuem a crescer significativamente.
Os fraudadores também estão usando ativamente ferramentas de inteligência artificial para automatizar a invasão de contas de usuários online. Caso obtenham acesso ao e-mail e senha de uma vítima de algum serviço, utilizam programas de IA que verificam rapidamente se esses dados são adequados para acesso a outras contas dessa pessoa, por exemplo, contas bancárias ou perfis de redes sociais.
Para combater esta ameaça, os bancos estão a implementar os seus próprios sistemas de inteligência artificial que monitorizam o comportamento do cliente, ou seja, como exactamente os dados são introduzidos e a partir de que dispositivos a aplicação é iniciada. Se houver desvios do comportamento normal, o sistema dispara um alarme e pode exigir autenticação adicional.
Os bancos também analisam a velocidade de digitação para determinar se uma pessoa está agindo sob coação. A IA também detecta sinais suspeitos, como colar texto copiado ou digitar de maneira muito uniforme. Os especialistas recomendam ativar a autenticação de dois fatores para proteger contas online e ficar atento em situações em que alguém repentinamente comece a exigir ação urgente para transferir uma quantia em dinheiro.