A IA tornou-se agora o participante mais ativo em ataques Web3. Em 2025, os atacantes usarão modelos generativos para automatizar phishing, manipular agentes inteligentes e escalar explorações contextuais mais rapidamente do que as equipas conseguem responder. Aqui está o que o seu protocolo precisa fazer sobre isso:
O phishing já não é feito à mão. Os LLMs agora podem simular tons de confiança, imitar mensagens de equipe e gerar iscas direcionadas a carteiras com grande sucesso. As taxas de cliques de mensagens criadas por IA correspondem às de phishing escritas por humanos. Eles operam em uma escala que os humanos nunca poderiam.
Sites clonados demoram menos de 60 segundos. As interfaces são extraídas e regeneradas usando ferramentas de AI. Pop-ups de carteira, prompts de transação, cores de marca, tudo replicado com quase precisão de pixel. Os usuários raramente sabem até que seja tarde demais. Credenciais e fundos fluem imediatamente.
Os LLMs simulam o comportamento de contratos, testam caminhos de execução e identificam vulnerabilidades na lógica de permissões. Em vez de escanear por CVEs conhecidos, os atacantes evoluem novos exploits a partir de código de código aberto. Esses modelos melhoram a cada interação.
Bots impulsionados por IA são agora parte da infraestrutura de protocolos, DAOs e fluxos de trabalho dos usuários. Eles podem ser enganados através de injeção de prompts, manipulação de memória ou poluição de contexto cruzado. O que parece ser automação torna-se uma superfície de ataque.
As equipas de segurança devem alinhar a automação com a defesa. Este panorama de ameaças não pode ser abordado com auditorias estáticas ou revisões manuais lentas.
Analisamos vetores emergentes e estratégias de defesa no nosso novo relatório:
1,07K