- BrainTools - https://www.braintools.ru -
Всем привет! На связи Арслан, тимлид команды тестирования компании «Совкомбанк Технологии». В этой статье я поделюсь опытом [1] успешного внедрения методов искусственного интеллекта [2] и больших языковых моделей (LLM) в тестирование программного обеспечения.
Объясню причины разработки собственных внутренних решений на основе искусственного интеллекта, какие трудности возникли на этом пути, как используем техники промпт-инжиниринга для повышения качества тест-кейсов и каких результатов смогли достичь.
Путь нашей команды начался с экспериментов с базовыми GPT-моделями и привел к созданию собственного ИИ агента для генерации тест-кейсов.
В этой статье рассмотрим:
Как мы решали проблему языкового барьера и недостатка контекста у модели.
Как техники промпт-инжиниринга повысили качество автоматически генерируемых тестов.
Почему мы перешли о разовых экспериментов к полноценному внутреннему решению.
Какие метрики эффективности получили и с какими вызовами столкнулись.
В этом разделе описаны наши первые шаги в работе с LLM — какие трудности возникли при использовании «сырых» языковых моделей и как мы с ними справлялись. Вы узнаете, почему стандартных решений оказалось недостаточно для банковской сферы.
На первом этапе мы использовали стандартные GPT-мдели без дообучения или интеграции с RAG (Retrieval-Augmented Generation). Основная цель — выяснить, насколько ИИ способен ускорить ручное тестирование без сложных доработок.
GPT, обученный на общих данных, не понимал специфику тестирования банковских приложений. Например, запрос «напиши тест-кейс для формы авторизации» выдавал шаблонные сценарии, игнорируя важные требования, такие как защита от брутфорса и проверка токенизации данных.
Модель не знала:
Бизнес-логику нашего приложения
Особенности интеграций. Например, принципы работы с Госуслугами, системой быстрых платежей
Требования регуляторов. Например, ЦБ РФ и PCI DSS
Каждый эффективный промпт требовал ручной настройки, а без системы хранения «рецептов» мы тратили время на повторные эксперименты.

Использование публичных LLM для работы с конфиденциальными банковскими данными было недопустимым.
Мы разработали шаблон для промптов, включающий:
Task (Задачу)
Начинайте с глагола действия: создать, написать, проанализировать
Четко формулируйте цель
Пример:
– Создай детальный чек-лист для тестирования функции восстановления пароля.
Context (Контекст)
Включает три ключевых аспекта:
Биография пользователя: кто использует результат
Определение успеха: что должно получиться
Среда использования: где и как будет применяться результат
Пример:
– Для мобильного приложения интернет-магазина нужно проверить функцию восстановления пароля. Пользователь — среднестатистический покупатель с базовыми навыками работы с телефоном.
Examples (Примеры)
Всегда предоставляйте примеры желаемого формата
Это помогает ИИ лучше понять требования
Пример:
ID | Шаги | Ожидаемый результат
TC_01 | 1. Открыть страницу входа… | Пользователь успешно вошел в систему…
Persona (Персона)
Определяет стиль ответа
Конкретная роль
Пример:
– Опытный тестировщик с акцентом на функциональное тестирование.

Format (Формат)
Укажите точный формат ответа
Можно использовать табличную форму, списки, текстовые блоки
Пример формата:
Тип документа: Чек-лист
Структура: Номер | Действие | Критерий успеха
Tone (Тон)
Определяет стиль общения
Может быть формальным, неформальным, требовательным, дружелюбным
Пример тона:
«Профессионально-нейтральный тон для корпоративной документации»
База знаний: Документировали архитектуру, интеграции, требования регуляторов.
Библиотека промптов: Шаблоны для типовых задач: генерация тестовой документации, анализ бизнес требований, объяснение кода и т. д.
Развернули локальную LLM внутри корпоративного периметра, чтобы исключить утечки данных.
Здесь расскажу, как наша команда превратила разрозненные эксперименты в полноценное рабочее решение. Вы узнаете об архитектуре нашего ИИ-агента и его преимуществах перед ручными методами работы.
После успешных тестов был разработан внутренний ИИ агент для генерации тест-кейсов.
Frontend: Веб-интерфейс с авторизацией через Active Directory / Keycloak.
Backend: Интеграция с Qwen API для генерации тестов.
Связь с инструментами: Автоматическая загрузка тест-кейсов в TestIT, получение данных задач из YouTrack и документации из Confluence.
Экономия времени: Генерация десятков тест-кейсов теперь занимает минуты (раньше — часы).
Масштабируемость: Легко адаптируется под новые проекты.
Стандартизация: Все тест-кейсы соответствуют единому шаблону.
Наглядное сравнение двух подходов поможет понять, в каких случаях стоит инвестировать в разработку собственного ИИ-решения, а когда достаточно библиотеки промптов.
|
Критерий |
ИИ агент |
Библиотека промптов |
|
Качество тестов |
Высокое (с учетом контекста) |
Среднее (зависит от промпта) |
|
Масштабируемость |
Легко адаптируется |
Требует ручного обновления |
|
Безопасность |
Локальное развертывание |
Зависит от среды исполнения |
|
Поддержка |
Требует обновления модели |
Требует обновления промптов |
Конкретные цифры, которые показывают, насколько эффективным оказалось наше решение и какие ресурсы потребовались для его реализации.
Затраты на разработку:
Подготовка базовой библиотеки промптов: ~20 часов
Создание и структурирование базы знаний: ~ 40 часов
Разработка ИИ агента (включая интеграции): ~120 часов
Тестирование и доработка решения: ~ 60 часов
Экономия времени в процессе использования:
|
Тип задачи |
ИИ агент |
Библиотека промптов |
|
Простые тест-кейсы |
Экономия 30-35% |
15-20% |
|
Комплексные сценарии |
Экономия 20-25% |
10-15% |
Наибольшая эффективность достигается при комбинированном подходе, где ИИ агент используется для генерации базовых тест-кейсов, а QA-инженеры сосредотачиваются на сложных сценариях и проверке результатов. Такой подход дает совокупную экономию времени до 30% на работу с тестовой документацией при гарантированном качестве тестирования.
Подведу итоги эксперимента и расскажу, как команда тестирования планирует развивать использование ИИ в тестировании в будущем.
GPT не заменит тестировщика, но может стать мощным инструментом для автоматизации рутинных задач.
Качество генерации напрямую зависит от контекста и промптов.
Безопасность — критически важный аспект при работе с LLM в fintech.
Интеграция с новыми LLM
Улучшение RAG подхода
Внедрение MCP протокола
Разработка новых ИИ агентов
А вы используете LLM в тестировании? Делитесь опытом в комментариях!
Автор: SovcomTech
Источник [3]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/17792
URLs in this post:
[1] опытом: http://www.braintools.ru/article/6952
[2] интеллекта: http://www.braintools.ru/article/7605
[3] Источник: https://habr.com/ru/companies/sovcombank_technologies/articles/932426/?utm_source=habrahabr&utm_medium=rss&utm_campaign=932426
Нажмите здесь для печати.