A inteligência artificial revolucionou a cibersegurança, mas não apenas para os defensores. Em 2025, o lado sombrio da IA tornou-se uma realidade alarmante, com ferramentas como FraudGPT e WormGPT democratizando ataques sofisticados. Neste artigo do Blog Dolutech, exploramos como criminosos estão armando a IA para perpetrar fraudes em escala industrial, transformando o cenário de ameaças de forma irreversível.
A Democratização do Cibercrime: WormGPT e FraudGPT
O surgimento de modelos de linguagem maliciosos representa uma mudança paradigmática no ecossistema do cibercrime. WormGPT e FraudGPT são variantes blackhat de modelos GPT, especificamente desenvolvidas para atividades criminosas sem quaisquer limitações éticas.
Documentado pela primeira vez em julho de 2023, o WormGPT foi construído sobre o modelo GPT-J e comercializado como alternativa aos sistemas legítimos. A ferramenta permite criar emails de phishing perfeitos, sem erros ortográficos ou gramaticais, com tom corporativo autêntico e personalização extrema. Segundo pesquisadores da SlashNext e KELA, menções a ferramentas de IA maliciosa em fóruns cibercriminosos aumentaram 219% em 2024 comparado a 2023.
O FraudGPT, comercializado por CanadianKingpin12, opera sob modelo de subscrição de $200 mensais ou $1.700 anuais. As capacidades incluem criação de malware indetectável, descoberta de vulnerabilidades, geração de código malicioso e tutoriais de hacking. Em 2025, variantes mais sofisticadas surgiram, como Xanthorox AI e NYTHEON AI, oferecendo arquiteturas modulares auto-hospedadas que operam inteiramente em servidores privados.
Alerta Crítico: O Mercado da Dark Web
A Dolutech, em navegações pela rede Onion, identificou múltiplos vendedores oferecendo WormGPT por aproximadamente $100 mensais. É crucial alertar: muitas dessas ofertas são golpes dentro de golpes. Criminosos estão vendendo versões falsas ou backdoored dessas ferramentas, transformando compradores em vítimas. Mais importante: a aquisição e uso destas ferramentas constitui crime em múltiplas jurisdições, incluindo Portugal e Brasil sob o RGPD/RPGD e Código Penal.
Nós da comunidade de cibersegurança devemos enfatizar: não compre, não teste, não experimente estas ferramentas. Além do risco legal, está a financiar organizações criminosas e contribuindo para um ecossistema que prejudica empresas legítimas e cidadãos.
Deepfakes: Quando Ver e Ouvir Não é Mais Acreditar
Os ataques de engenharia social evoluíram dramaticamente com deepfakes de voz e vídeo. Em fevereiro de 2024, a firma de engenharia Arup perdeu $25 milhões após um funcionário autorizar transferências durante videoconferência com o CFO e executivos. Todos eram deepfakes. A sofisticação era tal que múltiplas pessoas sintéticas interagiam naturalmente durante a chamada.
Dados da Surfshark revelam que incidentes relacionados a deepfakes atingiram 580 casos no primeiro semestre de 2025, quatro vezes mais que todo o ano de 2024. As perdas acumuladas ultrapassam $897 milhões, com $410 milhões apenas na primeira metade de 2025. O McAfee documentou que 1 em cada 4 adultos experienciou algum golpe de voz clonada por IA.
A barreira de entrada colapsou completamente. Com apenas 3 segundos de áudio, atacantes conseguem criar clones vocais com 85% de correspondência. CrowdStrike reportou aumento de 442% em ataques de voice phishing (vishing) no segundo semestre de 2024, impulsionados por vozes geradas por IA.
Casos Emblemáticos de 2024-2025
Em 2019, uma empresa energética do Reino Unido perdeu €220.000 após chamada telefônica com voz clonada do CEO. O caso pioneiro demonstrou o potencial destrutivo da tecnologia. Em 2024, a LastPass enfrentou tentativa onde criminosos clonaram a voz do CEO via WhatsApp. A Wiz, empresa de cloud security, foi alvo de dezenas de mensagens de voz fraudulentas solicitando credenciais, após criminosos clonarem a voz do CEO Assaf Rappaport baseados em conferência pública.
Executivos italianos, incluindo Giorgio Armani, foram alvos de campanha coordenada em 2025 onde deepfakes do Ministro da Defesa Guido Crosetto solicitavam transferências para supostamente libertar jornalistas. Pelo menos uma vítima transferiu €1 milhão para conta em Hong Kong.
Ransomware Inteligente: Automação da Destruição
O ransomware em 2025 incorpora IA em toda cadeia de ataque. LockBit 4.0, com capacidades de IA, demonstrou movimentação lateral completa e criptografia total de redes em menos de 20 minutos durante incidentes documentados. Dados da Vectra AI indicam que movimento lateral médio ocorre em 48 minutos após comprometimento inicial, com ataques mais rápidos atingindo propagação completa em 18 minutos.
Grupos como Akira registraram aumento de 60% em atividade apenas em janeiro de 2025, focando healthcare e manufatura. Sua operação depende de movimento lateral via RDP e WMI, mapeados no MITRE ATT&CK como T1021.001 e T1047. Segundo Zscaler ThreatLabz, 4,4 milhões de ataques ransomware foram bloqueados em 2024, representando aumento de 17,8% ano-a-ano.
IA na Cadeia de Ataque Ransomware
A IA está sendo aplicada em múltiplas fases:
Reconhecimento Automatizado: Sistemas de IA mapeiam redes, identificam ativos de alto valor e determinam caminhos de menor resistência em minutos, tarefa que antes levava dias.
Seleção Inteligente de Alvos: Algoritmos avaliam capacidade de pagamento baseados em setor, receita estimada, criticidade de sistemas e histórico de pagamentos, maximizando retorno do ataque.
Movimento Lateral Adaptativo: IA identifica credenciais, explora relações de confiança e propaga-se automaticamente, usando ferramentas legítimas do Windows como PowerShell e WMI para evitar detecção.
Negociação Automatizada: Chatbots conduzem negociações de resgate, ajustando valores baseados em respostas das vítimas e urgência demonstrada.
Evasão de Detecção: IA gera variantes de malware em tempo real, modificando assinaturas e comportamentos para evitar sistemas de detecção baseados em padrões.
Relatório CrowdStrike 2025 indica que 48% das organizações consideram cadeias de ataque automatizadas por IA como maior ameaça ransomware atual. Alarmantemente, 85% reportam que detecção tradicional está tornando-se obsoleta contra ataques melhorados por IA. Quase 50% das organizações temem não conseguir detectar ou responder tão rapidamente quanto ataques executados por IA.
AI-as-a-Service: O Submundo Empresarial do Crime
O modelo Cybercrime-as-a-Service evoluiu para AI-as-a-Service. Ferramentas sofisticadas são alugadas por valores acessíveis, democratizando capacidades anteriormente limitadas a grupos APT estatais.
Xanthorox AI, detectado em Q1 2025, mercantiliza-se como assassino do WormGPT, oferecendo arquitetura modular auto-hospedada com phishing, engenharia social, criação de malware, geração de deepfakes e pesquisa de vulnerabilidades. NYTHEON AI opera na dark web com seis modelos especializados incluindo Nytheon Coder para geração de código malicioso e Nytheon Vision para reconhecimento de imagens.
Subscrições começam em €60 mensais, tornando ataques avançados acessíveis a qualquer criminoso com cartão de crédito. Gartner prevê que até 2026, empresas combinando GenAI com arquiteturas de plataforma integrada experimentarão 40% menos incidentes de cibersegurança causados por funcionários.
A Assimetria de Poder
A mudança fundamental é a assimetria de poder. Anteriormente, ataques sofisticados exigiam conhecimento técnico profundo, infraestrutura cara e tempo significativo. Hoje, um atacante com conhecimento técnico mínimo pode, através destas ferramentas de IA, executar campanhas de phishing convincentes, desenvolver malware polimórfico, conduzir reconhecimento de rede e negociar resgates, tudo de forma automatizada.
Harvard Business Review documentou que criminosos podem reduzir custos de campanhas de phishing em 95% usando LLMs. Esta redução de custo traduz-se em volume: mais ataques, redes mais amplas, execução mais rápida e mais vítimas.
Estratégias de Mitigação: Combater IA com IA
Defendermo-nos contra IA maliciosa requer abordagem multicamadas que incorpora tanto controles técnicos quanto consciencialização humana.
Controles Técnicos Essenciais
Autenticação Multicanal: Qualquer solicitação sensível, especialmente envolvendo credenciais ou fundos, deve exigir segunda forma de verificação através de método conhecido e seguro. Nenhuma chamada de vídeo ou áudio, por mais convincente, deve bastar isoladamente.
Segmentação Zero Trust: Implementar microsegmentação para bloquear movimento lateral. Cada tentativa de comunicação entre segmentos deve passar por política de controlo. Movimentos não autorizados são bloqueados automaticamente.
Detecção Comportamental: Sistemas de IA defensivos monitorizam padrões anormais. Login fora de horário combinado com acesso a sistema financeiro pode indicar deepfake ou conta comprometida.
Políticas de Least Privilege: Limitar acesso apenas ao necessário. Se conta for comprometida, atacante tem acesso limitado, reduzindo potencial de movimento lateral.
Formação e Consciencialização
Treinar funcionários para reconhecer sinais de alerta: urgência artificial, solicitações fora de canais normais, inconsistências de voz ou vídeo e qualquer pedido que contorne procedimentos estabelecidos. Simulações regulares de phishing com deepfakes preparam equipas para cenário real.
Exemplo de PowerShell para Detecção de Movimento Lateral Anormal
# Script de monitorização de tentativas de RDP suspeitas
$Eventos = Get-WinEvent -FilterHashtable @{
LogName = 'Security'
ID = 4625, 4624 # Falhas e sucessos de login
} -MaxEvents 1000
$SuspeitaLateral = $Eventos | Where-Object {
$_.Properties[8].Value -match 'RemoteInteractive' -and
($_.TimeCreated -gt (Get-Date).AddHours(-1))
} | Group-Object -Property {$_.Properties[5].Value} |
Where-Object {$_.Count -gt 10}
if ($SuspeitaLateral) {
Send-MailMessage -To "soc@empresa.pt" -From "monitor@empresa.pt" `
-Subject "Alerta: Tentativas RDP Suspeitas" `
-Body "Detectadas $($SuspeitaLateral.Count) contas com múltiplas tentativas RDP"
}
Este script identifica padrões de tentativas RDP que podem indicar movimento lateral automatizado, comum em ransomware com IA.
Conformidade e Regulamentação: Europa e Brasil
Contexto Europeu e Português
No contexto português e europeu, a NIS2 e DORA impõem requisitos específicos sobre resiliência cibernética. Organizações devem implementar medidas técnicas e organizacionais adequadas para gerir riscos, incluindo aqueles provenientes de IA maliciosa.
O RGPD estabelece que tratamento de dados pessoais deve garantir segurança apropriada, incluindo proteção contra tratamento não autorizado. Deepfakes usando dados pessoais de executivos ou funcionários podem constituir violações graves. CNCS e CERT.PT fornecem orientações sobre implementação de controlos contra estas ameaças emergentes.
Contexto Brasileiro
No Brasil, a LGPD (Lei Geral de Proteção de Dados – Lei nº 13.709/2018) estabelece responsabilidades claras sobre segurança de dados pessoais. Em 2025, a ANPD (Autoridade Nacional de Proteção de Dados) intensificou significativamente a fiscalização, resultando em mais de 120 autos de infração no primeiro semestre, totalizando R$ 45 milhões em multas previstas.
A Resolução CD/ANPD nº 15, em vigor desde abril de 2024 com aplicação rigorosa desde segundo semestre de 2025, estabelece obrigatoriedade de comunicação de vazamentos e incidentes de segurança em até 3 dias úteis. Considerando que ataques com deepfakes e IA maliciosa frequentemente envolvem comprometimento de dados pessoais, organizações brasileiras devem manter planos formais de resposta a incidentes.
A Portaria ANPD nº 5/2024 regulamenta especificamente o uso de IA no tratamento de dados pessoais, exigindo documentação de fontes de treinamento, implementação de sistemas explicáveis e auditorias periódicas para mitigação de viés. Empresas que desenvolvem ou utilizam sistemas de IA para processamento de dados devem demonstrar transparência e auditabilidade.
Sanções pelo descumprimento da LGPD podem atingir até R$ 50 milhões por infração ou 2% do faturamento anual, o que for maior. Além das penalidades administrativas, o artigo 42 da LGPD estabelece responsabilidade civil objetiva por vazamentos, favorecendo consumidores lesados em ações judiciais.
Para organizações brasileiras, a Agenda Regulatória ANPD 2025-2026 prevê novas normativas sobre IA, dados biométricos e tratamento por órgãos públicos. O encarregado de dados (DPO) ganhou importância ampliada, sendo responsável direto por coordenar ações de resposta a incidentes e manter comunicação com a ANPD.
Perspetivas Futuras: 2025 e Além
Deloitte prevê que perdas relacionadas a deepfakes atinjam $40 mil milhões anuais até 2027. Custos globais de cibercrime devem atingir $10,5 triliões anuais até 2025, impulsionados significativamente por ataques potenciados por IA.
Estamos apenas no início desta transformação. Modelos de IA tornar-se-ão mais sofisticados, acessíveis e perigosos. Deepfakes em tempo real durante videoconferências, IA emocional que replica não apenas aparência mas traços de personalidade, e ransomware totalmente autónomo que opera sem intervenção humana são realidades iminentes.
A batalha entre defensores e atacantes está sendo decidida por quem domina a IA. Organizações que não tratarem segurança de IA como componente central de sua estratégia de cibersegurança ficarão vulneráveis. A questão não é se enfrentará ameaças potenciadas por IA, mas se estará preparado quando elas chegarem.
Amante por tecnologia Especialista em Cibersegurança e Big Data, Formado em Administração de Infraestrutura de Redes, Pós-Graduado em Ciências de Dados e Big Data Analytics e Machine Learning, Com MBA em Segurança da Informação, Escritor do livro ” Cibersegurança: Protegendo a sua Reputação Digital”.
