- BrainTools - https://www.braintools.ru -

Меня зовут Евгений Мартынов, я CIO Рег.облака. Сегодня хочу поговорить не про очередной хайп вокруг ИИ, а про конкретную точку на временной шкале — и почему именно сейчас она определяет, кто через три года будет впереди, а кто будет догонять.
В 1997 году у интернета было около 100 млн пользователей. Большинство компаний относились к нему как к забавной игрушке. Те, кто зашел тогда, — Amazon, Google — стали определять рынки. Те, кто подождал, позже платили за вход в десятки раз дороже. Генеративный ИИ прямо сейчас проходит ту же точку.
Навигация по тексту:
Есть классическая модель внедрения технологий: первое касание — осознанное использование — глубокая интеграция. По скорости первого касания генеративный ИИ обогнал и ПК, и интернет. По данным Stanford AI Index 2026, генеративный ИИ достиг 53% охвата мирового населения за три года. Для сравнения: интернету на аналогичную отметку понадобилось около семи лет, а персональным компьютерам — больше десяти.
Но скорость касания — это еще не глубина. Разрыв между «мы поиграли с промптами» и «у нас работает продуктовый пайплайн с LLM» — огромный. Именно этот разрыв определяет конкурентное преимущество. Осознанное использование ИИ растет быстрее, чем рос ранний интернет, но не радикально: перелом последних двух лет лишь переводит ИИ из экспериментальной фазы в зону устойчивых двузначных процентов внедрения.
Что это значит? У компаний еще есть время зайти не в хвосте. Но это время конечно. К моменту, когда ИИ станет по-настоящему массовым, конкуренты, которые начали сейчас, уже будут иметь отлаженные сценарии и накопленные данные. Догонять будет дороже, чем заходить сегодня.
Российский рынок генеративного ИИ по итогам 2025 года достиг 58 млрд руб. — это рост в 4,5 раза за год (по данным Just AI и Onside). Прогноз до 2030 года — 778 млрд руб. при среднегодовом темпе 68%. Но аналитики оговариваются: реализация этого сценария напрямую зависит от того, что произойдет в 2026–2027 годах — именно сейчас идет фаза, когда пилоты превращаются (или не превращаются) в рабочие продукты.
При этом только 26% компаний, которые закладывают бюджет на ИИ, имеют стратегию внедрения (данные MTC Web Services). Остальные — либо запускают пилоты, либо только планируют. Рынок входит в фазу «пост-хайпа»: экспериментов хватает, системных внедрений — пока нет.
Прежде чем говорить о том, как внедрять, — важный контекст про то, с чем работаем.
В России нет фундаментальных моделей уровня GPT или Qwen, созданных с нуля. Почти все решения — доработанные версии открытых моделей. Это не критика, это факт, который влияет на выбор архитектуры.
Масштаб вложений в фронтирные модели
Обучение [7] одной фронтирной модели уровня GPT-4 или Gemini Ultra — это десятки и сотни миллионов долларов только на прямые вычисления. По оценкам Epoch AI, стоимость обучения крупных моделей растет в 2–3 раза ежегодно; к 2027 году один тренировочный прогон фронтирной модели может стоить больше миллиарда долларов. Для наглядности: xAI в конце 2025 года расширила свой комплекс Colossus до суммарной мощности около 2 ГВт (энергопотребление среднего города), а парк ускорителей оценивают более чем в 500 тыс. GPU на сумму порядка $18 млрд.
Российские игроки таких ставок не делают — и не пытаются. Фокус смещается на дообучение открытых моделей (Qwen, Llama и их аналогов) под конкретные задачи. Это рабочая стратегия: дает достойное качество в прикладных сценариях, не тянет за собой глобальную гонку за капексом и оставляет ресурсы там, где они реально влияют на результат, — на данных, продуктовой логике [8] и интеграциях.
Следствие прямое: конкуренция идет не в создании базовых технологий, а в настройке импортной основы, сборе данных и удобстве продуктов. Российские нейросети в сложных задачах — разные языки, наука [9], программирование — пока отстают от мировых лидеров. В повседневных сценариях на русском языке — письма, бытовые вопросы, саппорт — работают достойно и конкурентоспособны.
Технически доступ к DeepSeek, ChatGPT и другим пока возможен. Но открытые публичные сервисы не подходят, когда:
есть конфиденциальные или персональные данные;
нужна постоянная гарантированная интеграция — без внезапных изменений API и ценовой политики;
агент должен работать по внутренним источникам и базам знаний.
Для большинства реальных корпоративных задач это именно тот случай.
Если публичные облака с иностранными моделями не подходят, остается собственная или арендованная инфраструктура в юрисдикции РФ — с контролируемым доступом и понятными зонами ответственности. Облачный провайдер может закрыть базовый уровень из коробки: аренда GPU-серверов (bare metal) и GPU-виртуалок, готовые инференсы моделей по API, low-code и no-code инструменты для сборки пайплайнов, агентские фреймворки, сопутствующая инфраструктура (чат-боты, хранилища, очереди).
Это позволяет не тратить месяцы на настройку железа и сосредоточиться на продуктовой логике.
Прежде чем переходить к конкретике платформы — несколько сценариев, которые уже решаются командами средней руки без глубокой ML-экспертизы.
Поиск по внутренним документам с персональными данными. RAG поверх внутренней базы знаний, все в периметре, данные никуда не утекают.
Личный ассистент с быстрым поиском по чувствительной информации. Корпоративный Notion с умным поиском, только на вашей инфраструктуре.
Внутренний помощник техподдержки. LLM, обученная на истории тикетов и документации, помогает первой линии.
Доверенный ассистент для пользователей. Публичный чат-бот, который отвечает строго по вашим данным и не уходит в галлюцинации за их пределами.
Генерация и проверка документов по локальному комплаенсу. Договоры, акты, регуляторная документация — модель знает ваши шаблоны и проверяет соответствие.
Мы собрали основные инструменты для работы с ИИ в одном месте и выделили под это отдельное направление [10]. Вот из чего состоит платформа.

Bare metal серверы с GPU и виртуальные серверы с GPU — почасовая и помесячная аренда, разные варианты ускорителей под разные задачи. Их можно преднастроить под конкретную задачу: установить модель, инференс, чат-бот, поднять OpenAPI-обертку.
Инференс — это конкретная модель, доступная по стандартизованному интерфейсу. Список инференсов будет дополняться, но на старте уже доступны:
Qwen/Qwen2.5-3B-Instruct
Qwen/Qwen2.5-7B-Instruct
Qwen/Qwen3-VL-8B-Instruct
DeepSeek-Coder-V2-Lite-Instruct
DeepSeek-R1-Distill-Llama-70B
Инференс можно арендовать монопольно на час. Готовится механика покупки за токены в шаред-режиме.
Чат-бот на базе Open WebUI + Ollama. Готовое решение для внутреннего использования — разворачивается в вашем периметре, подключается к вашим источникам данных.
Для большинства задач разрабатывать свою платформу оркестрации неэффективно. n8n — open-source решение, де-факто стандарт рынка, активное комьюнити, сотни тысяч пользователей. Закрывает 80–90% типовых сценариев.
Что уже делается через n8n:
автоматизация потока почтовых обращений или тикетов Jira с обработкой через LLM;
создание умного бота с контекстом без строчки бэкенд-кода;
проверка и отбраковка загружаемых документов;
интеграция внутренних систем с ИИ без разработки.
Среда совместной разработки для ML-команд. Актуально, если внутри есть дата-сайентисты, которым нужен общий вычислительный ресурс без головной боли [11] с настройкой.
Хранилище сырых данных и готовых моделей. Интегрируется со всеми остальными компонентами платформы.
Автономные исполнители задач. OpenClaw устанавливается одной командой в консоли поверх чистой ОС в Рег.облаке. Готовится версия как готового приложения.
Типичные задачи: администрирование в автономном режиме — аудит безопасности, установка ПО, настройка серверов по заданному сценарию без ручного участия.
Вернемся к аналогии с интернетом. В 1997 году многие говорили: «Подождем, пока технология созреет». Проблема в том, что технология зреет вместе с теми, кто ее внедряет. Компании, которые начали строить онлайн-продажи в конце 90-х, к 2005 году имели отлаженные процессы, лояльную базу и понимание цифровых каналов. Те, кто пришел позже, конкурировали с ними за внимание [12] аудитории, которая уже привыкла к определенному уровню.
С ИИ картина та же. Пока одни тратят время на пилоты в вакууме, продуктовые команды конкурентов уже обкатывают гипотезы на готовом стеке. Мы видим это по собственным клиентам. Запросы на GPU-инфраструктуру, инференсы и инструменты оркестрации приходят все чаще — и все конкретнее. Не «расскажите про ИИ», а «нам нужен RAG по внутренней базе знаний на нашем периметре» или «хотим автоматизировать первую линию саппорта через LLM». Именно эти запросы определяют, что мы строим и в каком порядке.Поэтому наша ИИ-платформа Рег.облака — это ответ на задачи, которые клиенты решают прямо сейчас.
ИИ-платформа [10]открыта для тестирования. Если работаете над задачами, которые описаны выше, приходите смотреть.
Автор: runity
Источник [13]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/29127
URLs in this post:
[1] Три волны, и мы в середине второй: #1
[2] Российский рынок: цифры, которые стоит знать: #2
[3] Немного (но честно) про модели: #3
[4] Где размещать: инфраструктурный выбор: #4
[5] ИИ-платформа Рег.облака: что внутри: #5
[6] Почему сейчас, а не потом: #6
[7] Обучение: http://www.braintools.ru/article/5125
[8] логике: http://www.braintools.ru/article/7640
[9] наука: http://www.braintools.ru/article/7634
[10] отдельное направление: https://reg.cloud/solutions/machine-learning?utm_source=habr&utm_medium=article&utm_campaign=aiplatform
[11] боли: http://www.braintools.ru/article/9901
[12] внимание: http://www.braintools.ru/article/7595
[13] Источник: https://habr.com/ru/companies/runity/articles/1026028/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1026028
Нажмите здесь для печати.