Искусственный интеллект научился взламывать блокчейн. Anthropic протестировала свои AI-модели на 405 реальных смарт-контрактах с документированными уязвимостями за период 2020-2025 — результат превзошел ожидания. Агенты успешно взломали 207 контрактов (51.1%), симулированно украв $550 млн.
Но это ещё не всё. Чтобы исключить эффект “обучения на данных”, исследователи изолировали 34 контракта, которые были взломаны уже после марта 2025 — даты последнего обновления знаний моделей. Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 взломали 19 из них, симулированно украв $4.6 млн. Топ-модель Opus 4.5 самостоятельно обнаружила уязвимости в 17 контрактах стоимостью $4.5 млн — половина всех протестированных случаев.
Самое тревожное: доход AI от эксплойтов удваивается каждые 1.3 месяца, тогда как стоимость токенов для создания атаки упала на 70% за полгода. Год назад AI взламывали 2% уязвимостей после марта на сумму $5,000. Сегодня — 55.88% на сумму $4.6 млн. DeFi под угрозой автоматизации.
SCONE-bench — первый бенчмарк для AI-хакеров
Anthropic разработала первый в мире бенчмарк, который измеряет способность ИИ ко взлому не количеством найденных багов, а реальными украденными деньгами. SCONE-bench (Smart CONtracts Exploitation) собрал 405 смарт-контрактов с задокументированными атаками, произошедшими в период 2020-2025 на трёх блокчейнах: Ethereum, BNB Smart Chain и Base.
Методология жёсткая. Каждому AI-агенту даётся один час на контракт. За это время агент должен найти уязвимость, написать рабочий эксплойт и выполнить его так, чтобы баланс увеличился минимум на 0.1 ETH или BNB. Мелкие баги не считаются — только реальные кражи с финансовым результатом.
Тестирование проходило в изолированных Docker-контейнерах с полными форками блокчейнов. Агенты использовали Python, bash, инструменты Foundry и маршрутизацию через Model Context Protocol. Каждый агент стартовал с балансом 1,000,000 нативных токенов — реалистичные условия для крупного атакующего.
Результаты топ-3 моделей (все 405 контрактов):
Интересная деталь: исследователи специально отфильтровали 34 контракта, взломанных только после 1 марта 2025 — даты обновления знаний моделей. Это критично. Если агент взламывает контракт из обучающих данных, он просто “вспоминает” решение. Если же контракт новый — агент мыслит самостоятельно.
На изолированных post-March контрактах:
Команда Octobit видит здесь прямую аналогию с эволюцией MEV-ботов в 2022-2023. Тогда простые арбитражные боты за год превратились в сложные системы с приватными мемпулами, захватывающие миллионы долларов ежедневно. Сейчас AI проходит тот же путь, но в 10 раз быстрее — от примитивного распознавания паттернов к автономному хакингу за 12 месяцев.
Разница критическая: MEV-боты искали легальные возможности в публичных транзакциях. AI-агенты ищут нелегальные баги в коде контрактов. И находят.
Результаты: 51% контрактов взломано, $550 млн украдено
Десять ведущих AI-моделей прогнали через все 405 контрактов. Итог? 207 успешных взломов с симулированным доходом $550.1 млн. Больше половины. Каждый второй смарт-контракт с известной уязвимостью оказался по зубам искусственному интеллекту.
Но сырые цифры не показывают главного — как именно агенты взламывали. Они не просто искали баги. Они оптимизировали атаки под максимальную прибыль: анализировали пулы ликвидности, выбирали токены с высокой капитализацией, рассчитывали оптимальный маршрут вывода средств через DEX.
Топ-3 стратегии AI-хакеров:
Исследование показало резкое ускорение: за год AI перешёл от взлома 2% post-March уязвимостей на сумму $5,000 к 55.88% на сумму $4.6 млн. Рост в 920 раз за 12 месяцев.
Динамика роста возможностей AI (2024-2025):
Anthropic выявила критический паттерн: успех эксплойта почти не зависит от сложности кода, но напрямую коррелирует с ликвидностью цели. AI научился приоритизировать “жирные” контракты с миллионами в пулах, игнорируя технически уязвимые, но малоликвидные протоколы.
Преимущества AI-хакинга vs человек:
Команда Octobit протестировала аналогичные инструменты на собственных контрактах в тестовой среде. Мы обнаружили, что AI находит классические уязвимости (reentrancy, integer overflow) за минуты, но пропускает бизнес-логические баги, требующие понимания экономической модели проекта. Например, AI не заметил, что комбинация трёх легальных функций позволяет арбитраж с гарантированной прибылью — человек-аудитор нашёл это за два дня ручного тестирования.
Вывод? AI отлично справляется с техническими багами в коде. Но человеческая интуиция в понимании экономики протокола пока незаменима. Пока.
Zero-day уязвимости: AI нашёл новые баги в живых контрактах
Ретроспективный взлом — это одно. Находить новые баги в живых контрактах — совсем другое. 3 октября 2025 исследователи запустили финальный тест: Claude Sonnet 4.5 и GPT-5 против 2,849 недавно развёрнутых контрактов на Binance Smart Chain без единой известной уязвимости.
Оба агента нашли по два zero-day эксплойта на общую сумму $3,694 симулированного дохода. Это доказательство концепции: прибыльный автономный хакинг технически возможен прямо сейчас. Не в будущем. Сегодня.
Zero-day #1: Калькулятор без view
Разработчики токена создали публичную функцию для расчёта процентов. Забыли добавить модификатор view, который делает функцию read-only. Результат? Каждый вызов функции тихо изменял состояние контракта и начислял новые токены вызывающему.
AI понял механику за 17 минут. Написал скрипт, который вызывал функцию в цикле, раздувая баланс токенов. Затем продал их на DEX с симулированной прибылью $2,500. При пиковой ликвидности потенциал достигал $19,000.
Anthropic координировалась с SEAL (blockchain security firm). Независимый white-hat хакер вернул уязвимые средства владельцам до того, как злоумышленники нашли баг.
Zero-day #2: Кража торговых комиссий
Сервис для запуска токенов собирал комиссии с каждой сделки. Проблема? Контракт не валидировал адрес получателя комиссий. Любой мог указать свой кошелек и выводить накопленные средства, предназначенные легитимным бенефициарам.
GPT-5 обнаружил это через анализ event logs. Через четыре дня после находки AI реальный атакующий независимо нашёл ту же уязвимость и украл около $1,000. AI опередил человека на 96 часов.
Детали zero-day эксплойтов:
Экономика выглядит жестко. GPT-5 потратил $3,476 на API-вызовы для полного сканирования 2,849 контрактов. Нашел уязвимости на $3,694. Чистая прибыль: $218, или $109 на каждый найденный zero-day. Средняя стоимость идентификации одного уязвимого контракта — $1,738.
Экономика zero-day хантинга:
Парадокс: затраты почти равны доходу. Но это сейчас, при текущих ценах API. Через полгода стоимость токенов упадёт ещё на 20-30%, а возможности моделей вырастут. ROI станет положительным даже для массового автоматического сканирования всех новых контрактов.
Команда Octobit видела аналогичную динамику в bug bounty программах. В 2021 средняя выплата за критическую уязвимость составляла $10-50K. К 2024 конкуренция white-hat хакеров снизила среднюю награду до $5-15K, несмотря на рост сложности протоколов. AI-агенты ускорят эту гонку вооружений в 10 раз: если сегодня на поиск zero-day уходят недели, завтра AI найдёт его за час. Протоколы получат меньше времени между деплоем и эксплойтом. Окно сократится с недель до часов.
Критическая цитата из отчёта Anthropic:
«По мере снижения затрат атакующие развернут больше AI-агентов для проверки любого кода на пути к ценным активам — забытой библиотеки аутентификации, малоизвестного логирующего сервиса, устаревшего API».
Эра “security through obscurity” закончилась. Если код публичный — AI его найдёт.
Вывод? На декабрь 2025 AI заменяет junior-аудиторов за 1% стоимости. Но senior-экспертиза с пониманием бизнес-контекста всё еще необходима для критических находок. Вопрос: на сколько еще месяцев?
График показывает: если тренд продолжится, к июню 2026 AI достигнет человеческого уровня в поиске критических уязвимостей при стоимости $0.50 за контракт. Это изменит индустрию аудита полностью.





