- BrainTools - https://www.braintools.ru -

AI-агенты для взлома смарт-контрактов

Пример смарт-контракта Solidity, который реализует очень базовую модель хранения одного числового значения в блокчейне

Пример смарт-контракта Solidity, который реализует очень базовую модель хранения одного числового значения в блокчейне

Возможно, найдено самое прибыльное использование AI-агентов на сегодняшний день.

Исследователи из Университетского колледжа Лондона (UCL) и Университета Сиднея (USYD) в Австралии разработали систему агентов [1], которая автономно обнаруживает и использует уязвимости в смарт-контрактах Solidity [2]. Генератор эксплоитов продемонстрировал высокую потенциальную прибыль, сумев взломать 26 контрактов на сумму $9,33 млн.


Смарт-контракты — это самовыполняющиеся программы децентрализованных финансов (DeFi), которые осуществляют транзакции при выполнении определённых условий.

Как и большинство программ достаточной сложности, в смарт-контрактах встречаются ошибки [3]. Согласно Web3 Immunefi, в прошлом году криптоиндустрия потеряла почти $1,5 млрд [4] из-за хакерских атак на смарт-контракты. С 2017 года преступники украли около $11,74 млрд [5] с платформ DeFi.

Генератор эксплоитов А1

Разработанный генератор эксплоитов под названием А1 представляет систему агентов, которая использует различные модели ИИ от OpenAI, Google, DeepSeek и Alibaba (Qwen).

Общая схема генератора А1 и список используемых инструментов

Общая схема генератора А1 и список используемых инструментов

Агент учитывает набор целевых параметров (блокчейн, адрес контракта и номер блока), выбирает инструменты и собирает информацию, чтобы понять поведение [6] контракта и его уязвимости. Затем генерирует эксплоиты в виде компилируемых контрактов на Solidity, которые тестируются на исторических состояниях блокчейна.

Система агентов A1 включает инструменты для проверки надёжности эксплоитов, включая загрузчик исходного кода для выполнения прокси-контрактов [7], отдельные инструменты для инициализации параметров, чтения функций контактов, очистки кода, тестирования кода и расчёта доходов.

При тестировании на 36-ти действительно уязвимых контрактах в блокчейнах Ethereum и Binance Smart Chain, генератор A1 продемонстрировал уровень успешности взлома 62,96% (17 из 27) по бенчмарку VERITE [8]. Кроме них, A1 обнаружил ещё девять уязвимых контрактов в реальном использовании.

Результат успешного применения эксплоитов, сгенерированных А1. В ячейках указано количество итераций, необходимых для нахождения успешной атаки (бюджет агента ограничен пятью итерациями), максимальная прибыль в ETH/BNB и долларах по рыночному курсу. Зелёным отмечены смарт-контракты, которые появились в интернете после обучения модели

Результат успешного применения эксплоитов, сгенерированных А1. В ячейках указано количество итераций, необходимых для нахождения успешной атаки (бюджет агента ограничен пятью итерациями), максимальная прибыль в ETH/BNB и долларах по рыночному курсу. Зелёным отмечены смарт-контракты, которые появились в интернете после обучения [9] модели

В общей сложности сумма потенциально извлечённых средств составляет $9,33 млн. В ходе 432-х экспериментов с шестью LLM авторы рассчитали средний ROI, то есть окупаемость инвестиций для вычислительных итераций.

A1 тестировали с различными LLM: o3-pro (OpenAI o3-pro, o3-pro-2025-06-10), o3 (OpenAI o3, o3-2025-04-16), Gemini Pro (Google Gemini 2.5 Pro Preview, gemini-2.5-pro), Gemini Flash (Google Gemini 2.5 Flash Preview 05-20:thinking, gemini-2.5-flash-preview-04-17), R1 (DeepSeek R1-0528) и Qwen3 MoE (Qwen3-235B-A22B).

Модели o3-pro и o3 от OpenAI показали максимальную эффективность 88,5% и 73,1%. Они работали в цикле с пятитуровым бюджетом в агентском цикле (максимум пять интерактивных обращений к самой себе, чтобы продумать стратегию, проанализировать ситуацию, принять решения и завершить выполнение задачи).

Авторы доказали, что такая система может работать рентабельно. На следующей иллюстрации показано, что o3-pro остаётся прибыльной даже если только 1 из 1000 сканирований приводит к реальной уязвимости — при условии, что уязвимость появилась в течение последних 30-ти дней:

AI-агенты для взлома смарт-контрактов - 4

Авторы подчёркивают, что по мере совершенствования агентов система станет ещё более рентабельной. Они также рекомендуют разработчикам блокчейн-проектов самим использовать инструменты вроде A1 для непрерывного мониторинга своих протоколов, а не ждать, пока посторонние обнаружат проблемы.

На скриншоте ниже показан код эксплоита SGETH, сгенерированный A1:

AI-агенты для взлома смарт-контрактов - 5

Для получения прибыли под контролем злоумышленника должен быть один актор для передачи прав собственности и другой для использования вновь полученных привилегий с целью минтинга и вывода монет.

На следующем скриншоте приведён код эксплоита GAME, тоже сгенерированный A1:

AI-агенты для взлома смарт-контрактов - 6

Этот код разворачивает вспомогательный контракт и воспроизводит точную последовательность действий для эксплоита: делает минимальную допустимую ставку, чтобы инициировать возврат средств предыдущему участнику торгов, а затем использует уязвимость повторного входа во время обратного вызова возврата средств.

Ниже перечислены все реальные инциденты DeFi, упомянутые в научной работе:

AI-агенты для взлома смарт-контрактов - 7

Автономный AGI и заработок

Недавно выяснилось, что договор между OpenAI и Microsoft содержит пункт о появлении сильного ИИ (AGI) [10]. Предполагается, что это «фундаментальное» событие в корне меняет условия договора. Например, становится бессмысленным обсуждение дальнейшей разработки проекта и раздела прибыли. Так вот, одной из характеристик «достаточного AGI» названа его способность приносить прибыль (более $100 млрд). Любопытно, что AI-агенты уже в 2025 году демонстрируют базовые способности такого рода, пусть и не совсем легальными способами.

Если автономные AI-агенты научатся зарабатывать деньги и распоряжаться ими по своему распоряжению (в том числе регистрировать юридически лица и нанимать персонал), это может сильно повлиять на мировую экономику. Возможно, в автономных агентах будущего возможность незаконных действий будет заблокирована программным путём.

Препринт статьи с описанием агента опубликован [11] 8 июля 2025 года на сайте arXiv.org. Исследование выполнено при участии Центра ответственного децентрализованного интеллекта в Беркли [12] (UC Berkeley Center for Responsible, Decentralized Intelligence).

Автор: GlobalSign_admin

Источник [13]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/17940

URLs in this post:

[1] разработали систему агентов: https://arxiv.org/abs/2507.05558

[2] смарт-контрактах Solidity: https://docs.soliditylang.org/en/latest/introduction-to-smart-contracts.html

[3] ошибки: http://www.braintools.ru/article/4192

[4] почти $1,5 млрд: https://downloads.ctfassets.net/t3wqy70tc3bv/2LqNkvjajiCS5sPJmWLakc/9715af967dd95a55da05d2ad373edb0d/Immunefi_Crypto_Losses_in_2024_Report.pdf

[5] около $11,74 млрд: https://defillama.com/hacks

[6] поведение: http://www.braintools.ru/article/9372

[7] прокси-контрактов: https://medium.com/@social_42205/proxy-contracts-in-solidity-f6f5ffe999bd

[8] бенчмарку VERITE: https://github.com/wtdcode/verite

[9] обучения: http://www.braintools.ru/article/5125

[10] пункт о появлении сильного ИИ (AGI): https://www.wired.com/story/microsoft-and-openais-agi-fight-is-bigger-than-a-contract/

[11] опубликован: https://arxiv.org/abs/2507.05558v2

[12] Центра ответственного децентрализованного интеллекта в Беркли: https://rdi.berkeley.edu/

[13] Источник: https://habr.com/ru/companies/globalsign/articles/933646/?utm_source=habrahabr&utm_medium=rss&utm_campaign=933646

www.BrainTools.ru

Rambler's Top100