AI теперь стал самым активным участником атак в Web3. В 2025 году злоумышленники будут использовать генеративные модели для автоматизации фишинга, манипуляции умными агентами и масштабирования контекстно-осведомленных эксплойтов быстрее, чем команды смогут реагировать. Вот что вашему протоколу нужно сделать по этому поводу:
Фишинг больше не создается вручную. LLM теперь могут имитировать доверительные тона, подражать сообщениям команды и генерировать приманки, нацеленные на кошельки, с высокой эффективностью. Показатели кликабельности сообщений, созданных ИИ, сопоставимы с фишингом, написанным человеком. Они работают в масштабе, который люди никогда не могли бы достичь.
Клонированные сайты загружаются менее чем за 60 секунд. Фронтенды извлекаются и регенерируются с использованием инструментов AI. Всплывающие окна кошелька, запросы на транзакции, фирменные цвета — все воспроизводится с почти пиксельной точностью. Пользователи редко осознают это, пока не станет слишком поздно. Учетные данные и средства поступают немедленно.
LLM моделируют поведение контрактов, тестируют пути выполнения и выявляют уязвимости в логике разрешений. Вместо того чтобы сканировать на наличие известных CVE, злоумышленники развивают новые эксплойты из открытого исходного кода. Эти модели улучшаются с каждой интеракцией.
Боты на основе ИИ теперь являются частью инфраструктуры протоколов, DAO и рабочих процессов пользователей. Их можно обмануть с помощью инъекций команд, манипуляций с памятью или загрязнения контекста. То, что выглядит как автоматизация, становится уязвимой точкой.
Команды безопасности должны сочетать автоматизацию с защитой. Этот ландшафт угроз нельзя решить с помощью статических аудитов или медленного ручного обзора.
Мы разбираем новые векторы и стратегии защиты в нашем новом отчете:
1,05K