- BrainTools - https://www.braintools.ru -
В блоге Beeline Cloud [1] мы часто поднимаем темы информационной безопасности — например, недавно рассказывали про RFC 9116, который описывает security.txt.
Сегодня мы продолжим тему в контексте LLM. Спроектировать или развернуть систему ИИ — это только полдела. Ее еще нужно тщательно протестировать, отладить и проверить на уязвимость к промпт-инъекциям. Упростить эту задачу помогают специальные инструменты — несколько таких open source-проектов мы собрали в этой подборке.
Проект представила компания из Сиэтла — OpenPipe, развивающая агентскую систему для анализа почты. Это — фреймворк [2] с лицензией Apache 2.0 для повышения надежности агентов, который позволяет подготовить их к решению многоступенчатых задач. Например, если нужно распарсить хранилище знаний или обработать строгую последовательность действий. Он использует алгоритм обучения [3] с подкреплением [4] GRPO, предложенный командой DeepSeek. Как и в случае с другими подходами reinforcement learning, ART тренирует ИИ-агента максимизировать совокупное вознаграждение. Этот критерий может быть объективным (совпадает ли результат с эталонными данными) или субъективным — когда вывод оценивает другая LLM в роли «судьи». Процесс авторы показали в виде блок-схемы [5].
При этом команда ART хотела не просто разработать инструмент для повышения надежности ИИ-агентов, но и оптимизировать работу с железом. Специалисты сочли [6] существующие фреймворки — например, GRPOTrainer и verl — недостаточно эффективными с точки зрения [7] использования GPU и слабо приспособленными к работе с задачами, состоящими из нескольких этапов. Как пишут авторы, пока агенты переходят по ссылкам, заполняют формы или запускают сторонние процессы — видеокарты для инференса простаивают. Чтобы решить эту проблему, разработчики разделили задачи из цикла GRPO между двумя сущностями: «фронтендом», который включает пользовательский код и определение агентских сценариев, и «бэкендом», берущим на себя инференс и обучение. В итоге ART проще интегрировать с имеющимися приложениями, а «тяжелый бэк» вынести на серверы с мощными GPU.
Начать знакомство с ART можно с документации [8]. В ней описаны возможности фреймворка, есть гайд для быстрого старта с установкой и первым запуском, а также разбор цикла обучения, архитектуры бэкенда и ART-клиента. Там же есть ссылки на ноутбуки с примерами — в частности, как Qwen3 14B училась играть [9] в «2048 [10]», а Qwen2.5 3B — в крестики-нолики [11].
Это — симуляционный фреймворк [12] с лицензией MIT для тестирования и запуска агентов в кастомных средах. Он написан на TypeScript командой стартапа Fallom, под крылом которого развивают одноименную observability-платформу для LLM. Основал компанию канадский разработчик Энтони Систилли, который специализируется на системах ИИ.
SimKit позволяет симулировать среду и запустить в ней ИИ-агента, чтобы увидеть, как он справляется с той или иной задачей. По словам автора проекта, привычные методы не позволяют в деталях оценить выполнение многоэтапных, ресурсоемких и требующих планирования задач. SimKit же дает возможность точно воспроизводить заданные сценарии для тестирования, более того, инструмент оптимизирован под рантайм Bun [13].
Благодаря OpenTelemetry [14] фреймворк позволяет мониторить и ход рассуждений ИИ-агентов при принятии решений, упрощая отладку. Разработчик SimKit поделился примером [15] такой симуляции. Что касается документации проекта, то она достаточно компактная — все описано в рамках нескольких частей README [16]-файла. Тем не менее в них можно найти краткие инструкции по установке и информацию о ключевых функциях.
Представляет собой полноценную LLM Ops-платформу [17] для оценки, отладки и оптимизации агентов и приложений на основе LLM. LangWatch разработала одноименная нидерландская компания в 2024 году — она поставляет [18] инструменты мониторинга и тестирования. Платформу развивают под лицензией BSL [19], но в 2028 году проект должен будет перейти под Apache 2.0.
Авторы проекта хотели предоставить решение для обнаружения аномалий в поведении [20] ИИ-агентов. В этом смысле LangWatch позволяет [21] оценить качество LLM-приложений как на реальных, так и на синтетических датасетах [в режиме реального времени или офлайн]. Также в состав платформы входит интерактивная Optimization Studio [22]. С ее помощью можно провести базовую настройку пайплайнов, собирая их в визуальном конструкторе.
Документация [23] у LangWatch подробная и структурированная: для каждой функции выделен отдельный раздел с описаниями и видео. Кроме того, разработчики добавили теоретические материалы — например, вводный блок по тестированию ИИ-агентов. Там же можно найти описание архитектуры LangWatch и инструкции по локальному развертыванию.
Модульный инструмент [24] для тестирования систем ИИ и API под лицензией MIT. Развивает проект fullstack-разработчик [25] из Италии, ранее занимавшийся обслуживанием наземных систем управления для европейского космического проекта «Галилео [26]».
Конвейер для тестирования строится с помощью «блоков [27]» — их можно комбинировать. Это может быть модуль, выполняющий запросы к API, модуль для парсинга JSON-строк, или модуль, повторяющий произвольные этапы пайплайна в цикле [всего таких блоков восемь штук]. Погрузиться в особенности реализации и задачи каждого блока можно в документации [28]. Там же есть инструкции по установке и настройке инструмента. Отдельный подраздел посвящен сценариям — в нем разработчик объясняет, когда использовать семантическую проверку, а в каких случаях ее лучше не применять (при работе с точными числами и так далее). Также на главной странице проекта есть форма [29], где можно опробовать инструмент.
Это — инструмент [30] для стресс-тестирования агентов с лицензией MIT. Его представил независимый разработчик из Индии и описал как «брандмауэр для ИИ-агентов». По мнению программиста, разработка агентов и приложений на их основе не представляет особых трудностей, но отладка, в свою очередь, может быть дорогостоящей и длительной — особенно в рамках крупной компании. Если агент зациклится и начнет повторять [31] одни и те же действия, он может за короткое время «сжечь» огромное количество токенов. Есть и другой риск: утечка данных. Плюс нельзя забывать [32] о том, что ручное тестирование обходится недешево.
Agentic QA берет на себя первичные проверки: на наличие бесконечных циклов запросов к LLM, утечки данных и уязвимости перед промпт-инъекциями. Сам инструмент сделан простым, поэтому все, что нужно для начала работы, разработчик описал в README.
ИБ-сканер [33] с лицензией Apache 2.0, который помогает разобраться, что происходит «под капотом» агентных систем, и выявлять уязвимости. Проект развивает американская ИБ-компания SPLX, которую в прошлом году приобрел провайдер облачных решений Zscaler.
Что касается функциональности, то инструмент формирует отчет по безопасности агентной системы. Он включает граф рабочих процессов, перечень внешних и пользовательских инструментов, а также таблицу, в которой сопоставлены используемые утилиты и известные уязвимости. Проверка проводится в том числе с оглядкой на OWASP Top 10 для LLM-приложений [34]. Среди продвинутых возможностей — Agentic Prompt Hardening. В этом случае Agentic Radar автоматически улучшает обнаруженные системные промпты — как утверждают авторы, в соответствии с «лучшими практиками промпт-инжиниринга».
Чтобы интегрировать Agentic Radar в CI/CD, можно воспользоваться шаблоном для GitHub Actions [35]. К сожалению, у проекта нет подробной документации — инструкции по быстрому старту, описание функций, все это собрано в README. Там же приведены источники для дополнительного чтения и блоги (как правило, ссылки ведут на сайт родительской компании).
Beeline Cloud [1] — secure cloud provider. Разрабатываем облачные решения, чтобы вы предоставляли клиентам лучшие сервисы.
Что еще почитать в нашем блоге на Хабре — статьи и подборки:
Автор: beeline_cloud
Источник [40]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/25231
URLs in this post:
[1] Beeline Cloud: https://cloud.beeline.ru/?utm_source=owned_media&utm_medium=habr&utm_campaign=beeline_cloud&utm_term=aiinstr
[2] фреймворк: https://github.com/OpenPipe/ART
[3] обучения: http://www.braintools.ru/article/5125
[4] подкреплением: http://www.braintools.ru/article/5528
[5] блок-схемы: https://openpipe.ai/blog-images/ARTBlog1.webp
[6] сочли: https://openpipe.ai/blog/art-trainer-a-new-rl-trainer-for-agents
[7] зрения: http://www.braintools.ru/article/6238
[8] документации: https://art.openpipe.ai/getting-started/about
[9] училась играть: https://colab.research.google.com/github/openpipe/art-notebooks/blob/main/examples/2048/2048.ipynb
[10] 2048: https://en.wikipedia.org/wiki/2048_(video_game)
[11] в крестики-нолики: https://colab.research.google.com/github/openpipe/art-notebooks/blob/main/examples/tic_tac_toe/tic-tac-toe.ipynb
[12] фреймворк: https://github.com/Fallomai/simkit
[13] Bun: https://en.wikipedia.org/wiki/Bun_(software)
[14] OpenTelemetry: https://github.com/open-telemetry
[15] примером: https://github.com/Fallomai/simkit/tree/main/apps/examples/energy-ai
[16] README: https://github.com/Fallomai/simkit/blob/main/README.md
[17] LLM Ops-платформу: https://github.com/langwatch/langwatch
[18] поставляет: https://langwatch.ai/about-us
[19] BSL: https://github.com/langwatch/langwatch/blob/main/LICENSE.md
[20] поведении: http://www.braintools.ru/article/9372
[21] позволяет: https://langwatch.ai/docs/optimization-studio/evaluating
[22] Optimization Studio: https://langwatch.ai/docs/optimization-studio/overview
[23] Документация: https://langwatch.ai/docs/
[24] инструмент: https://github.com/blade47/semantic-test
[25] fullstack-разработчик: https://www.alessandroafloarei.com/about
[26] Галилео: https://en.wikipedia.org/wiki/Galileo_(satellite_navigation)
[27] блоков: https://docs.semantictest.dev/blocks/overview
[28] документации: https://docs.semantictest.dev/introduction
[29] форма: https://www.semantictest.dev/#playground
[30] инструмент: https://github.com/Saurabh0377/agentic-qa-api
[31] повторять: http://www.braintools.ru/article/4012
[32] забывать: http://www.braintools.ru/article/333
[33] ИБ-сканер: https://github.com/splx-ai/agentic-radar
[34] OWASP Top 10 для LLM-приложений: https://owasp.org/www-project-top-10-for-large-language-model-applications/
[35] для GitHub Actions: https://github.com/splx-ai/agentic-radar/blob/main/examples/github_workflow/auto-agentic-radar.yaml
[36] Как могут выглядеть специализированные ЯП для разработки с помощью LLM: https://habr.com/ru/companies/beeline_cloud/articles/987892/
[37] Бастионы, SSH-шлюзы (и не только) для подключения к домашним лабораториям: https://habr.com/ru/companies/beeline_cloud/articles/981264/
[38] Еще один шаг в тему селф-хостинга и домашних лабораторий: https://habr.com/ru/companies/beeline_cloud/articles/981274/
[39] Получит ли ИИ «нобелевку» к 2050-му?: https://habr.com/ru/companies/beeline_cloud/articles/991376/
[40] Источник: https://habr.com/ru/companies/beeline_cloud/articles/992814/?utm_campaign=992814&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.