FraudGPT: o 'irmão' do ChatGPT usado para criar golpes e outras ameaças digitais
Tecnologias de inteligência artificial generativa têm se tornado ferramentas para gerar fraudes mais sofisticadas, pornografia falsa e até armas bioquímicas
FraudGPT é o "irmão malvado" do ChatGPT. Ele é promovido na dark web e pode escrever uma mensagem se passando por um banco, criar um malware (software intencionalmente feito para causar danos, conhecido popularmente como "vírus) ou exibir sites suscetíveis de serem fraudados, segundo a plataforma de análise de dados Netenrich. Outras ferramentas, como o WormGPT, também prometem facilitar o trabalho dos cibercriminosos. É o uso da chamada inteligência artificial generativa para fins maliciosos, que vão desde uma nova geração de golpes mais sofisticados até a criação de pornografia não consensual, campanhas de desinformação e armas bioquímicas.
"Apesar de ser algo relativamente novo, os criminosos não têm demorado a tirar partido das capacidades da inteligência artificial generativa para atingir os seus propósitos", afirma Josep Albors, diretor de Pesquisa e Sensibilização da empresa de segurança informática ESET, na Espanha. O especialista dá alguns exemplos: desde o desenvolvimento de campanhas de phishing cada vez mais aperfeiçoadas – sem erros ortográficos, mas também muito bem segmentadas e direcionadas – à geração de desinformação e deepfakes, ou seja, vídeos manipulados com IA para alterar ou substituir o rosto, o corpo ou a voz de uma pessoa.
Para Fernando Anaya, gerente nacional da Proofpoint, uma empresa americana de segurança cibernética, a IA generativa provou ser “um passo evolutivo e não revolucionário”. — Já se foi o tempo em que os usuários eram aconselhados a procurar erros gramaticais, de contexto e de sintaxe óbvios para detectar e-mails maliciosos — diz. Agora é mais fácil para os invasores. Basta pedir a uma dessas ferramentas para gerar um e-mail urgente e atraente sobre a atualização da conta e das informações de roteamento.
Leia também
• INSS adota inteligência artificial para detectar fraudes em auxílio-doença. Tire suas dúvidas
• Inteligência Artificial afetará 60% dos empregos nas economias avançadas, diz FMI
• Apple faz reorganização em equipe de inteligência artificial e vai encerrar operação em San Diego
Além disso, eles podem criar e-mails facilmente em vários idiomas. — É possível para um LLM (um modelo de linguagem avançado que utiliza aprendizagem profunda e é treinado em grandes quantidades de dados, como o ChatGPT) primeiro ler todos os perfis do LinkedIn de uma organização e depois redigir um e-mail bem específico para cada funcionário. Tudo isso em inglês ou holandês impecáveis, adaptado aos interesses específicos do destinatário — alerta o Centro Holandês de Segurança Cibernética.
Philipp Hacker, professor de Direito e Ética da Sociedade Digital na Nova Escola Europeia de Estudos Digitais, explica que a inteligência artificial generativa pode ser usada para criar malwares mais eficazes, mais difíceis de detectar e mais capazes de atacar sistemas ou vulnerabilidades específicas: — Se ainda seja necessária uma vasta experiência humana para desenvolver vírus avançados, a inteligência artificial pode ajudar pelo menos nos estágios iniciais da criação do malware.
A implementação deste tipo de técnicas, porém, “ainda está longe de ser generalizada”, segundo Josep Albors. Mas ferramentas como FraudGPT ou WormGPT podem representar um “sério problema para o futuro”: — Com sua ajuda, criminosos com quase nenhum conhecimento técnico prévio podem preparar campanhas maliciosas de todos os tipos com considerável probabilidade de sucesso, o que para usuários e empresas significará ter de lidar com um número ainda maior de ameaças.
Gerar áudio, imagens e vídeos
Quanto mais convincente for um golpe, maior será a probabilidade de alguém se tornar vítima. Há quem use inteligência artificial para sintetizar áudio. — Golpes como "pig butchering" (que envolvem promessas falsas de retornos lucrativos a partir de investimentos) poderão um dia passar de mensagens para ligações, aumentando ainda mais o poder de persuasão dessa técnica — diz Anaya. Este golpe, traduzido para portugês como “açougue de porcos”, é assim chamado porque os agressores ‘engordam’ as vítimas e ganham a sua confiança e depois levam tudo o que têm. Embora geralmente esteja relacionado a criptomoedas, também pode envolver outras trocas financeiras.
Os pesquisadores da Proofpoint já viram criminosos cibernéticos usarem essa tecnologia para enganar autoridades governamentais. Algo demonstrado por sua pesquisa sobre o grupo TA499, que utiliza essa técnica contra políticos, empresários ou celebridades. — Eles fazem videochamadas nas quais tentam se parecer o mais possível com os indivíduos personificados com IA e outras técnicas para que as vítimas compartilhem informações ou os ridicularizem, posteriormente enviando a gravação para as redes sociais — explica Anaya.
A inteligência artificial generativa também é utilizada para veicular campanhas com imagens e até vídeos modificados. O áudio de apresentadores de televisão ou personalidades importantes como Ana Botín, Elon Musk ou mesmo Alberto Núñez Feijóo já foi clonado. É assim que Albors explica: — Esses deepfakes são usados principalmente para promover investimentos em criptomoedas que geralmente terminam com a perda do dinheiro investido.
Da pornografia às armas bioquímicas
Philipp Hacker considera o uso de inteligência artificial generativa para criar pornografia falsa particularmente “alarmante”. — Essa forma de abuso é dirigida quase exclusivamente às mulheres e causa graves danos pessoais e profissionais — ressalta. Há alguns meses, dezenas de menores da região da Extremadura, na Espanha, relataram que circulavam fotos falsas delas nuas, criadas por IA. O mesmo aconteceu no Brasil em escolas do Rio de Janeiro, de Recife e Belo Horizonte. Algumas celebridades, como Rosalía ou Laura Escanes, também sofreram ataques semelhantes.
A mesma tecnologia tem sido utilizada “para criar imagens falsas que retratam imigrantes ameaçadores, com o objetivo de influenciar a opinião pública e os resultados eleitorais e para criar campanhas de desinformação em grande escala mais sofisticadas e convincentes”, destaca Hacker. Após os incêndios florestais que devastaram a ilha de Maui, em agosto do ano passado, algumas publicações indicaram, sem qualquer evidência, que os incêndios tinham sido causados por uma “arma climática” secreta testada pelos Estados Unidos. Essas mensagens faziam parte de uma campanha liderada pela China e incluíam imagens aparentemente criadas com inteligência artificial, segundo o The New York Times.
O potencial do uso da IA generativa não termina aqui. Um artigo publicado na revista científica Nature Machine Intelligence indica que modelos avançados de inteligência artificial poderiam ajudar na criação de armas bioquímicas. Algo que, para Hacker, representa um perigo global. Além disso, os algoritmos podem infiltrar-se em softwares de infraestrutura crítica, de acordo com o especialista: — Essas ameaças híbridas confundem os limites entre os cenários de ataque tradicionais, tornando-os difíceis de prever e combater com as leis e regulamentações existentes.
O desafio de prevenir os riscos do FraudGPT e outras ferramentas
Existem soluções que utilizam aprendizado de máquina e outras técnicas para detectar e bloquear os ataques mais sofisticados. Ainda assim, Anaya enfatiza a educação e conscientização dos usuários para que eles próprios possam reconhecer e-mails de phishing e outras ameaças. Para Hacker, mitigar os riscos associados ao uso malicioso de inteligência artificial generativa requer uma abordagem que combine medidas regulatórias, soluções tecnológicas e diretrizes éticas.
Entre as medidas possíveis, menciona a implementação de equipas independentes obrigatórias que testem este tipo de ferramentas para identificar vulnerabilidades e possíveis utilizações indevidas ou a proibição de determinados modelos de código aberto. — Abordar estes riscos é complexo, pois existem compromissos importantes entre os vários objetivos éticos da inteligência artificial e a viabilidade de implementação de certas medidas — conclui.