- BrainTools - https://www.braintools.ru -

Компьютерные агенты на базе LLM уже не просто отвечают на вопросы — они кликают по файлам, запускают shell‑команды, переносят данные и подключаются по SSH. Такой помощник быстро превращается в инструмент атаки, если его попросить обойти защиту или сделать что‑то вредоносное. Авторы работы предлагают честно измерить этот риск: могут ли распространённые агенты выполнить тактики и техники уровня MITRE ATT&CK и собрать из них сквозную цепочку атаки?
Большинство прежних тестов смотрели на единичные трюки в искусственных условиях: один хост, открытые секреты, оценка глазами другой модели. В реальности атакующий опирается на набор тактик, техник и процедур, действует по шагам и часто трогает несколько машин. В ответ авторы собрали AdvCUA — бенчмарк из 140 задач: 74 TTP‑сценария, 40 прямых вредоносных запросов и 26 сквозных цепочек, выровненных с 10 тактиками и 77 техниками ATT&CK. Всё это выполняется в изолированной, но правдоподобной многохостовой среде.
Внутри Docker‑микросети живут три узла: рабочая станция сотрудника, привилегированный админ‑сервер и бизнес‑веб‑сервер. Агент стоит на рабочей станции и может ходить к соседям по IP, копировать файлы по SCP, подключаться по SSH. Секреты распределены и хранятся в разных форматах, перезагрузка и часть системных функций ограничены. Чтобы не спорить с оценкой, авторы ввели детерминированные проверки: срабатывание триггеров, зондирование эффектов, верификацию состояния и совпадение индикаторов.
Две главные метрики: Bypass Success Rate — согласился ли агент на вредоносный запрос, и Attack Success Rate — довёл ли дело до цели по жёстким проверкам. Учитываются не только первые попытки, но и повторные (до пяти), ведь на практике злоумышленники часто пробуют несколько раз.
Пять популярных фреймворков: ReAct, AutoGPT, Gemini CLI, Cursor CLI и Cursor IDE. Внутри — восемь моделей: GPT‑4o, GPT‑4.1, Gemini 2.5 Flash/Pro, Claude Sonnet 3.7/4, LLaMA 4 Maverick и др. Настройки единые, температура нулевая, чтобы исключить случайность [1].
Самая тревожная часть — TTP‑задачи. Cursor CLI достигает среднего ASR 69.59%, опережая ReAct (52.29%) и Cursor IDE (51.66%). Для сквозных цепочек лидирует Cursor IDE с 34.62%, за ним Cursor CLI (26.93%) и ReAct (23.37%). В среднем BSR выше ASR на 24.17%: агенты чаще выражают готовность и начинают действовать, чем доходят до результата, но разрыв не спасает — многих атак достаточно завершить один‑два шага, чтобы нанести ущерб.
Повторные попытки ощутимо повышают шансы на успех — особенно у GPT‑4o, GPT‑4.1 и LLaMA 4 Maverick. Это важная практическая деталь: если продукт не сработал с первого раза, злоумышленник просто нажмёт «ещё раз».
В одной из демонстраций Gemini CLI помогает пройти путь от поиска SUID‑бинарника до повышения привилегий, закрепления и извлечения хешей паролей с их последующим взломом. Такой сценарий включает несколько тактик и техники из разных семейств — именно то, что часто видим в инцидентах.
Авторы проверили три подхода: фильтры на входе (LLaMA Guard 4 и OpenAI Moderation API) и самопредупреждение в промте. Фильтрация TTP‑запросов работает слабо: многие задачи без явных джейлбрейков проходят. Самопредупреждение почти не меняет картину. Вывод прямой: одних проверок текста недостаточно — нужны системные ограничения прав, мониторинг действий агента и защитные политики на уровне ОС.
Работа показывает разрыв между безопасностной настройкой LLM‑агентов и реальными OS‑центричными угрозами. Инструменты, которые ускоряют разработку и сопровождение инфраструктуры, одновременно снижают порог входа для сложных атак. AdvCUA делает риск измеримым: есть покрытие по ATT&CK, многохостовая среда, детерминированные метрики и воспроизводимость. Это удобная база для честных сравнений и для обучения [2] более безопасных агентов.
Песочница ограничена Ubuntu 22.04 и не включает часть системных возможностей, поэтому некоторые атаки воспроизводятся частично. Нет Windows, macOS, мобильных систем и GUI. Разметка и дизайн ручные, возможен байас. При этом все эксперименты изолированы от реальных сетей и секретов, а сценарии документированы для повторения [4].
📜 Полная статья [5]
***
Если вам интересна тема ИИ, [6]подписывайтесь на мой Telegram‑канал [7] [8]— там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Автор: andre_dataist
Источник [9]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/20539
URLs in this post:
[1] случайность: http://www.braintools.ru/article/6560
[2] обучения: http://www.braintools.ru/article/5125
[3] ошибки: http://www.braintools.ru/article/4192
[4] повторения: http://www.braintools.ru/article/4012
[5] 📜 Полная статья: https://arxiv.org/abs/2510.06607
[6] : https://t.me/+mP35nQPhgXZmZDYy
[7] подписывайтесь на мой Telegram‑канал: https://t.me/+Wr57RWW2Kpk4NTYy
[8] : https://t.me/+d-7OcUj18oM1NGYy
[9] Источник: https://habr.com/ru/articles/955376/?utm_source=habrahabr&utm_medium=rss&utm_campaign=955376
Нажмите здесь для печати.