От экспериментов с ИИ до AI-Native: уровни зрелости и архитектура. Часть 1. ai.. ai. DevOps.. ai. DevOps. llm.. ai. DevOps. llm. Блог компании Swordfish Security.. ai. DevOps. llm. Блог компании Swordfish Security. ИИ.. ai. DevOps. llm. Блог компании Swordfish Security. ИИ. Информационная безопасность.. ai. DevOps. llm. Блог компании Swordfish Security. ИИ. Информационная безопасность. искусственный интеллект.. ai. DevOps. llm. Блог компании Swordfish Security. ИИ. Информационная безопасность. искусственный интеллект. исскуственный интеллект.

Привет!

С вами Юрий Сергеев, основатель и генеральный партнер в Swordfish Security. Мы строим DevSecOps и развиваем безопасный искусственный интеллект.

В этой статье я расскажу, как компании переходят от базового применения ИИ к концепции AI-Native, какие уровни зрелости существуют, как классифицируются приложения и модальности, а также с какими рисками сталкиваются организации при внедрении ИИ.

Прежде всего эта статья для тех, кто не может себе позволить запретить использование LLM из-за соображений, что случатся недопустимое события: потеря данных, нарушение конфиденциальности, кража моделей. Другими словами, для практиков, которые движутся вперед и ищут решения и процессы, помогающие сделать меньше ошибок.

Часть первая:

Введение

Машинное обучение (ML) и генеративный ИИ (GenAI) меняют организационный ландшафт. Компании убеждаются, что ИИ способствует внедрению инноваций, помогает сохранять конкурентоспособность и повышает продуктивность сотрудников. Становится понятным, что данные, накапливаемые организацией, дают ей конкурентное преимущество для ИИ приложений. Это естественным образом приводит к усиленному вниманию к самим моделям как к ключевому компоненту ИИ-решений и порождает спекуляции о возможностях будущих моделей.

Уровни зрелости AI

В данный момент можно рассмотреть три уровня зрелости: от «просто ИИ» к «ИИ-как-ДНК»: Conventional AI, AI-First и AI-Native.

Уровни зрелости AI

Уровни зрелости AI

Conventional AI: технология ради эффективности

На базовом уровне ИИ рассматривается как утилитарная технология для повышения производительности: автоматизация рутинных задач, сокращение издержек, ускорение операций. Подход прагматичный и локальный: внедряем алгоритм — получаем прирост эффективности. Однако влияние на стратегию и бизнес-модель минимально: процессы и решения в целом остаются прежними.

AI-First: первый шаг к технологической интеграции

AI-First — это уже стратегический поворот: компании целенаправленно используют ИИ для улучшения существующих процессов, продуктов и услуг.

Ключевые признаки:

🔹приоритизация ИИ в разработке и принятии решений;

🔹системное внедрение в текущие цепочки создания ценности;

🔹метрики и KPI увязаны с качеством ИИ-решений.

Результат — ощутимое повышение качества и скорости, но бизнес-логика по-прежнему эволюционирует вокруг существующих продуктов.

AI-Native: когда ИИ становится бизнес-ДНК

AI-Native — это качественно иной уровень. ИИ не «надстройка», а фундамент:

🔹алгоритмы глубоко интегрированы во все функции — от стратегии и R&D до операций и клиентского опыта;

🔹решения, продукты и операционные процессы проектируются с ИИ по умолчанию;

🔹ИИ направляет принятие решений, а не просто обслуживает их.

Такой переход означает смену самой бизнес‑модели: компания опирается на возможности ИИ как на первоисточник конкурентного преимущества.

Резюмируя:

Уровень зрелости

Эффективность

Conventional AI

Локальная эффективность. Хорошо, чтобы начать.

AI‑First 

Системное улучшение текущего бизнеса. Шаг к масштабу.

AI‑Native

Перестройка бизнеса вокруг ИИ. Источник новых моделей дохода.

Переходы между ступенями требуют не столько большего числа моделей, сколько смены архитектурных и управленческих принципов: от точечных инструментов — к платформе, от ручных регламентов — к машинным контролям, от экспериментальных кейсов — к операционной автономности под надзором.

«Малые» ИИ-инициативы дают лишь постепенный эффект.

Запуск чат-бота, суммаризатора диалогов или «готовых» инструментов для рекламы и писем полезен для экспериментов с невысоким риском. Но это, как правило, локальные улучшения. Они редко приводят к заметному сдвигу финансовых результатов сами по себе, потому что не меняют архитектуру решений, продуктовую стратегию и операционную модель.

Настоящая ИИ-трансформация

Полноценная трансформация требует иного масштаба использования ИТ, данных и моделей (ML, LLM).

Ключевые аспекты трансформации:

🔹Упор на автоматизацию и автономность процессов, где человеческое участие минимально;

🔹Сквозная интеграция данных, MLOps/LLMOps и платформенных сервисов;

🔹Переосмысление циклов принятия решений — от «ручных» к машинно-поддерживаемым и самоуправляемым.

Риски при этом растут экспоненциально и превосходят по сложности волны прошлых изменений — публичные облака, микросервисы, контейнеры.

Причина — автономность: ошибки, дрейф моделей, уязвимости в цепочках данных и решений теперь распространяются быстрее и шире.

Следствие — потребность в централизации и управляемости:

🔹единая платформа данных и моделей;

🔹централизованные политики качества, безопасности и соответствия;

🔹единый контроль версий, мониторинг и реагирование на инциденты;

🔹общие стандарты для экспериментов и вывода моделей в промышленную эксплуатацию.

При этом централизация никак не противоречит гибкости команд — она задает «рельсы», по которым децентрализованные продуктовые команды движутся быстрее и безопаснее.

По мере того, как всё больше разработчиков создают приложения на базе больших языковых моделей (LLM), бизнес убеждается: для достижения действительно передовых результатов нужны сложные ИИ-системы, идущие гораздо дальше статических моделей дополнения подсказок и LLM плагинов. Использование сложных приложений с мультикомпонентной архитектурой открывает новые возможности, но также сопряжено с потенциальными рисками. Существует угроза нарушений безопасности и конфиденциальности. Например, данные, отправленные во внешнюю LLM, могут быть раскрыты или скомпрометированы. 

Организации также беспокоятся о таких рисках, как потеря данных, нарушение их конфиденциальности, кража моделей и сложности с обеспечением соответствия существующим и будущим нормативным требованиям при использовании собственных данных в ML и GenAI. Без надежных механизмов контроля доступа пользователи могут с помощью генеративных моделей ИИ получить доступ к конфиденциальной информации, к которой они не должны иметь доступа. Если модели используются для взаимодействия с клиентами, данные может получить конкурент. При отсутствии возможностей аудита и отслеживания работы моделей и данных организации сталкиваются с рисками нарушения регуляторных требований. 

Классификация ИИ-приложений 

Компании использовали технологии машинного обучения (ML) в своих приложениях на протяжении десятилетий. Ранее это требовало глубоких знаний и длительной подготовки моделей. С появлением технологии генеративного ИИ и LLM, а также благодаря простому доступу к предварительно обученным моделям в формате подписки (например, ChatGPT, GigaChat и YandexGPT), сформировались основные категории прикладных архитектур:

🔹приложения с предиктивной ML-моделью;

🔹приложения, ориентированные на промпты;

🔹автономные AI-агенты;

🔹LLM-плагины и расширения;

🔹комплексные AI-приложения (здесь LLM играет ключевую роль в рамках более широкой системы или бизнес-сценария).

Классификация ИИ-приложений

Классификация ИИ-приложений

Приложения с предиктивной ML-моделью. Предназначены для анализа исторических данных и предсказания будущих событий с целью оптимизации процессов или принятия решений. В основе приложения лежит предиктивная ML-модель, обученная на большом наборе данных, включающих ключевые характеристики и показатели.

Основные функции:

🔹Сбор и обработка данных — приложение автоматически собирает входные данные из различных источников, очищает и подготавливает их для анализа.

🔹Анализ данных и обучение модели — с помощью алгоритмов машинного обучения (например, регрессия, случайный лес, градиентный бустинг, нейросети) строится модель, выявляющая закономерности и зависимости.

🔹Прогнозирование — на основе новых входных данных модель предсказывает исходы или значения, например, спрос на продукт, вероятность отказа оборудования или поведение клиентов.

🔹Визуализация результатов — выводит результаты прогнозов в виде графиков, отчетов или интерактивных панелей для удобства восприятия.

🔹Автоматическое обновление модели — по мере поступления новых данных модель периодически переобучается для повышения точности прогнозов.

Примеры промышленного применения:

▪️Розничная торговля: для предсказания спроса и управления запасами.

▪️Здравоохранение: для прогнозирования риска развития заболеваний.

▪️Промышленность: для предиктивного обслуживания оборудования, снижая время простоя.

▪️Финансовый сектор: для оценки кредитного риска клиентов.

Таким образом, приложение с предиктивной ML-моделью помогает принимать более обоснованные и своевременные решения, уменьшая риски и повышая эффективность бизнеса.

Приложения на основе статических промптов. Используют заранее заданные команды на естественном языке для управления поведением большой языковой модели с целью получения нужного результата. Такой подход позволяет оптимизировать взаимодействие между пользователем и моделью путем точной настройки формулировок, контекста и инструкций, передаваемых LLM. Эти приложения позволяют пользователям выполнять широкий спектр задач, просто уточняя способ формулировки запросов или инструкций.

Ключевые характеристики:

🔹Прямое взаимодействие с моделью

🔹Возможность быстрого прототипирования

🔹Относительная простота и доступность

Примеры промышленного применения:

▪️Генерация контента

▪️Вопросно-ответные системы

▪️Инструменты перевода языка

Приложения-агенты. Используют большие языковые модели для автономного или полуавтономного выполнения задач, принятия решений и взаимодействия с пользователями или другими системами. Такие агенты действуют от имени пользователя, управляя сложными процессами, которые часто включают в себя несколько этапов, интеграции с другими системами и принятие решений в режиме реального времени. Они работают с определённой степенью автономии, что позволяет им выполнять задачи без постоянного вмешательства человека.

Ключевые характеристики:

🔹Автономное принятие решений

🔹Взаимодействие с внешними системами

🔹Автоматизация сложных рабочих процессов

Примеры промышленного применения:

▪️Чат-боты для поддержки клиентов

▪️Анализ данных и отчетность

▪️Автоматизация процессов

LLM-плагины и расширения. Интегрируют большие языковые модели в существующие приложения или платформы, позволяя им предоставлять пользователю новую функциональность. Плагины обычно служат мостом между LLM и приложением, обеспечивая бесшовную интеграцию, например, добавляя языковую модель в текстовый редактор для проверки грамматики или интегрируясь с системами управления маркетинговыми кампаниями для автоматических ответов на электронные письма.

Иногда бывает сложно провести четкую грань между агентами и плагинами / расширениями, которые часто являются компонентами больших приложений. Одним из критериев является способ их развертывания. Например, плагин — это заранее созданный агент, предназначенный для повторного использования, который вы вызываете явно через API или как часть плагина или фреймворка расширений LLM, в отличие от пользовательского кода, работающего периодически в фоновом режиме.

Ключевые характеристики:

🔹Фокус на решении специфических задач

🔹Реализация интеграции между LLM и пользовательским приложением

🔹Решение задачи расширения функциональности LLM

Примеры промышленного применения:

▪️Инструменты создания контента

▪️Резюмирование текста

Комплексные приложения. Это продвинутые программные системы, в которых большие языковые модели играют центральную роль, обеспечивая расширенные возможности и решения. Эти приложения отличаются широким охватом, высокой масштабируемостью и глубокой интеграцией с множеством технологий и компонентов. Как правило, они создаются для решения комплексных задач — зачастую в корпоративной среде — и требуют значительных усилий по разработке, инженерной поддержке и постоянному обслуживанию. Такие приложения часто предназначены для обработки запросов, поступающих от не-человеческих систем. Обычно они включают в себя координацию между различными компонентами, — например, API, базами данных, системами мониторинга или IoT-устройствами, — которые генерируют входные данные для обработки LLM, интерпретации и выполнения действий.

Ключевые характеристики:

🔹Многокомпонентная архитектура

🔹Множественные интеграции

🔹Расширенные функции, масштабируемость

Примеры промышленного применения:

▪️Автоматизированная финансовая отчетность

▪️Анализ юридических документов

▪️Системы медицинской диагностики

Классификация модальностей LLM

Скажем несколько слов про классификацию модальностей в контексте LLM. Это способ группировки по типу входных и выходных данных, с которыми модель работает.

Ниже приведена структурированная классификация модальностей LLM:

🔸Текстовая модальность

🔸Аудио

🔸Изображения и видео

🔸Структурированные данные

🔸Кодовая модальность

🔸Сенсорные/IoT модальности

🔸Мультимодальность (текст + изображение, текст + аудио и так далее).

Изначально LLM работали в единственной модальности – текстовой. С 2025 года активно используются распознавание и генерация аудио, снимков, видео в различных комбинациях. Поддерживаются структурированные данные, такие как таблицы, графы, SQL-запросы; проводятся активные эксперименты по автоматической или полуавтоматической генерации кода программ, поиску ошибок и предоставлению подсказок программистам. В сенсорной модальности обрабатываются сигналы от физических устройств (датчики, камеры, сенсоры) для генерации текстовых или мультимодальных ответов.

Типы моделей машинного обучения и паттернов использования

Существует несколько типов, паттернов использования и развертывания моделей машинного обучения:

🔹Предиктивные модели машинного обучения (ML). Это традиционные модели для структурированных данных, обучаемые на пользовательских табличных данных. Обычно это модели на Python, упакованные в формате MLflow.

🔹Внешние фундаментальные модели. Размещены в публичном облаке, доступны в формате сторонних сервисов: GPT от OpenAI, YandexGPT, GigaChat и другие.

🔹Базовые большие языковые модели. Отобранные архитектуры фундаментальных моделей, развернутые внутри организации или в частном облаке, например, Meta Llama, GTE-Large и Mixtral.

Основные паттерны использования LLM в порядке повышения сложности:

  • Взаимодействие с LLM через промпт-инжиниринг. Это практика настройки текстовых подсказок, передаваемых LLM, с целью получения более точных или релевантных ответов. Не каждая модель будет давать одинаково качественные результаты, так как промпт-инжиниринг зависит от конкретной модели.

  • Генерация через дополненный контекст (Retrieval Augmented Generation, RAG). Это архитектурный подход, который может повысить эффективность приложений с большими языковыми моделями (LLM) за счет использования пользовательских данных. Достигается путем извлечения релевантных данных или документов, соответствующих вопросу или задаче, и предоставления их в качестве контекста для LLM. RAG показал успех в чат-ботах поддержки и системах вопросов и ответов, которым необходимо иметь актуальную информацию или доступ к специфичным для области знаниям.

  • Дообучение (fine-tuning) LLM. Это процесс адаптации предварительно обученной большой языковой модели (LLM) на относительно небольшом наборе данных, специфичных для определенной области или задачи. В ходе дообучения модель продолжает обучение в течение короткого времени, возможно, с корректировкой относительно меньшего числа весов по сравнению с всей моделью.

  • Кастомизация и предварительное обучение (Pre-Training) LLM. Предварительное обучение LLM с нуля означает процесс обучения языковой модели на большом объеме данных (например, текстах, коде) без использования каких-либо предварительных знаний или весов от уже существующей модели. Это отличается от дообучения, при котором уже предварительно обученная модель дополнительно адаптируется к конкретной задаче или набору данных. Результатом полного предварительного обучения является базовая модель, которую можно использовать напрямую или далее дообучать для выполнения конкретных задач. Предварительное обучение обычно является самой крупной и самой дорогой задачей в обучении моделей и не является типичной практикой для большинства организаций.

Итоги первой части

Мы разобрали уровни зрелости ИИ, ключевые аспекты ИИ-трансформации, классификацию приложений и модальностей LLM, а также типы моделей машинного обучения и паттерны их использования. Понимание этих элементов помогает оценивать возможности этих технологий, выбирать подходящие архитектуры и управлять рисками внедрения ИИ.

Совсем скоро, во второй части, поговорим о том, как строить безопасные и эффективные ИИ-приложения на практике: от эволюции инженерных практик и DevOps/ MLOps до LLMDevOps и LLMSecOps, а также о циклe разработки следующего поколения (Next‑Gen SDLC), управлении рисками и защите систем AI‑Native.

Автор: YSergeev

Источник

Rambler's Top100