- BrainTools - https://www.braintools.ru -
За последние несколько лет ИИ прошел колоссальный путь. Сначала над ним смеялись. Затем вдруг испугались, решив, что он отнимет у всех работу. А теперь – причем не исключено даже, что все это были одни и те же люди – внедряют его в своих компаниях. Что же поменялось?
Если честно, то поменялось почти все – от того, что сегодня умеет искусственный интеллект до того, сколько все это добро стоит. Однако ключевых факторов все-таки два.
Во-первых, стало дешевле и проще. Теперь, чтобы внедрить ИИ, уже не нужно покупать железо за миллионы и нанимать команду, которая будут это дело обслуживать.
Во-вторых, появились реальные кейсы применения ИИ с измеримым результатом, которые позволяют четко определить, что работает, а что нет.
Слишком общо? Ну, давайте конкретнее. Раньше, чтобы запустить что-то с нейросетями, нужно было собрать целый отдел ML-инженеров, закупить GPU, разобраться с фреймворками, библиотеками, зависимостями. На это могли уйти месяцы подготовки.
А сейчас что?
А сейчас облачные платформы дают готовые инструменты прямо из коробки. RAG-поиск по документам? Пожалуйста. Генератор ответов? Вот он. Конструктор чат-ботов? Забирайте. Теперь можно просто взять API, интегрировать его у себя за пару дней и начинать работать.
Но главное даже не это. Главное – кто бы сомневался – деньги. Топовый GPU Nvidia A100 стоит 2-2.5 миллиона рублей. За один чип. Один. А для нормальной работы нужен целый кластер. Плюс – электричество, охлаждение, администрирование. Это не разовые платы, а регулярные. В облаке история совсем другая. Здесь ты платишь за использование, и только за него. Запустил модель на час для теста, значит, платишь за час. Выключил – не платишь.
Причем чем дальше, тем дешевле становится вся эта история. Больше клиентов грузят инфраструктуру – меньше стоит каждый токен. А клиентов набралось ой как много.
По подтвержденным данным, за этот год частота использования нейросетей в корпоративном сегменте выросла в 5 раз. В один только Yandex AI Studio пришло 40 тысяч компаний, половина из которых – крупный бизнес. Таким образом уже за первое полугодие Yandex Cloud заработал от AI-сервисов больше миллиарда [2], что больше, чем за весь прошлый год. И это лишь одна платформа.
А весь рынок генеративного ИИ в России и вовсе может достичь отметки в 1.9 триллиона к концу года. Да, рублей, а не долларов, но все равно внушительно.
Впрочем, особо удивляться тут нечему: деньги в рынок действительно текут рекой. Сказывается обоюдный интерес [3] как со стороны потребителя, так и поставщика. Например, Selectel заявил [4] о намерениях вложить в ИИ 10 миллиардов рублей до 2031 года. А Яндекс планирует потратить на его развитие более 40 миллиардов. Просто все поняли, что это не хайп на пару лет, а новый расклад сил, и с этим надо как-то считаться.
А вы уже используете AI у себя в компании? Расскажите, как именно вы это делаете, у в сообществе Практики FinOps в Telegram [5]. А если не используете, то почему? Будет очень интересно почитать и подискутировать.
Раз уж мы заговорили про платформы, интересно посмотреть, какие модели компании выбирают чаще всего. Картина получается довольно прозрачная.
Возьмем для примера Yandex AI Studio. На платформе доступно больше 20 моделей: YandexGPT, мультимодальные модели Яндекса, плюс куча опенсорса вроде Qwen, Llama, Mistral. А вот как делится реальное потребление:
YandexGPT — 62,7% трафика. Его в основном используют для RAG-сценариев: поиск по внутренним документам, регламентам, таблицам, базам знаний, пересказ текстов, извлечение данных из договоров и, конечно, корпоративные чат-боты.
Qwen3-235B от Alibaba — 30,9% трафика. Почти треть! Это мощная китайская модель, у которой хорошо с кодом и длинным контекстом. Ее чаще всего берут для агентских систем, где ИИ сам ходит во внешние API и оркестрирует действия. Плюс – автогенерация и доработка кода, сложные цепочки действий поверх внутренних сервисов компании.
GPT-OSS — 5,7% трафика. Это открытые модели от OpenAI, которые Яндекс крутит у себя и отдает через единый API. Их, как правило, используют там, где нужно “западное поведение” модели, но при этом хочется держать все в российском облаке.
В Cloud.ru, к примеру, картина немного другая. Тут доступно больше 20 генеративных моделей с открытым кодом: DeepSeek, Llama 3, Qwen, GLM и та же линейка gpt-oss. Плюс GigaChat 2 MAX — сберовская LLM, которую активно пушат как топовую русскоязычную модель. В тестах MMLU-RU она обгоняет GPT-4o и Claude 2 по ряду метрик.
У Selectel есть Foundation Models Catalog. Это каталог преднастроенных моделей с готовым API. Сейчас он находится в статусе private preview, но идея та же: Llama, Mistral, Qwen и прочие опенсорсные модели из коробки.
VK Cloud и MTS/MWS идут примерно тем же путем: своя MLOps-платформа плюс доступ к популярным LLM.
Как компании выбирают? Если упростить, то так:
Для русского текста и документов берут YandexGPT или GigaChat. Они обучены на больших русскоязычных корпусах, хорошо понимают локальный контекст и бизнес-язык.
Для кода, агентов и экспериментов используют Qwen, DeepSeek, Llama, Mistral. Они дешевле и проще дообучаются под конкретную задачу.
Для совместимости с глобальными стеками берут gpt-oss через OpenAI-совместимый API.
То есть популярность модели у нас определяется не только качеством. Тут играет роль и локальность данных, и русский язык из коробки, и цена за тысячу токенов, и просто удобство интеграции.
Хватит теории. Давайте посмотрим, как это работает в реальной жизни.
Перед Лемана Про (бывший Леруа Мерлен) стояла банальная задача: им нужно было писать карточки товаров с описаниями, характеристиками и SEO-тегами. Раньше это делали контент-менеджеры вручную, и создание одной карточки с учетом доработки и правок могло занимать до нескольких часов.
Естественно, это было непозволительно для компании такого масштаба. Поэтому было решено внедрять нейросеть. Сказано – сделано. Модель начала генерировать карточки за несколько секунд, а работа людей теперь сводится только к тому, чтобы проверять готовый результат и при необходимости его корректировать. В результате стоимость создания карточек упала на 95%.
Ренессанс Жизнь решала другую проблему. Их юристы всегда обрабатывали документы от госорганов вручную. Читали бумаги, искали нужные пункты, переносили данные в систему. Рутина убийственная. На один документ уходили в лучшем случае часы, а в худшем – дни. Сейчас это делает нейросеть. Она извлекает все нужное за 20-30 секунд, а юристы только проверяют точность.
Банки.ру запустил AI-чат-бот для 20 миллионов пользователей, который помогает искать финансовые услуги, сравнивать условия, отвечать на типовые вопросы. Сейчас бот обрабатывает примерно 20% самых популярных запросов и постепенно учится большему, разгружая поддержку и давая мгновенные ответы круглосуточно.
Несмотря на разность задач, общий тренд виден невооруженным глазом: облачные нейросети убирают рутину и дают быструю отдачу. Просто берешь готовое, настраиваешь под свои процессы и запускаешь.
Теперь вопрос – кто все это предоставляет. Ведь на самом деле полноценных MLOps-платформ в России не так уж и много. Основные игроки выглядят так:
Yandex Cloud
Cloud.ru (бывший SberCloud)
VK Cloud
МТС
Selectel
Остальные предлагают просто аренду GPU. То есть голое железо без интеграции готовых инструментов. Бери и настраивай сам все с нуля. Если умеешь и есть время, конечно.
Поэтому теперь – не в железе, а в сервисах. Чтобы сдать в аренду стойки с GPU, большого ума не надо. Большой ум нужен, чтобы обеспечить людям удобство. Теперь качество платформы определяется тем, насколько легко у нее выстроена работа с моделями, насколько быстро можно развернуть решение, насколько хорошо работает оркестрация и мониторинг. Кто сделал проще и быстрее для бизнеса, тот и забрал клиентов.
В общем, картина с ИИ складывается довольно внятно. Теперь, чтобы запустить что-то с нейросетями, нужны дни, а не месяцы. Не нужно сразу замораживать миллионы в железе. И не нужна команда профессионалов, чтобы хотя бы попробовать. Это сильно снижает порог входа.
Поэтому сомнений в том, что рынок будет расти, нет никаких. Компании видят результат здесь и сейчас и сразу думают, а где еще можно применить ИИ. Провайдеры тоже способствуют популяризации нейронок, вкладывая миллиарды, наращивая инфраструктуру и снижая цены.
И чем дальше, тем проще становится войти. Пока круг не сломается, остановки не будет. А ломаться он явно не собирается, судя по тому, сколько денег туда летит.
Так что те, кто еще пять лет назад смеялся над ИИ, а потом испугался — теперь активно внедряют. И, похоже, правильно делают.
Автор: petrovcargoex
Источник [6]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/21725
URLs in this post:
[1] интеллект: http://www.braintools.ru/article/7605
[2] больше миллиарда: https://www.vedomosti.ru/technology/news/2025/10/27/1150016-godovaya-viruchka
[3] интерес: http://www.braintools.ru/article/4220
[4] заявил: https://companies.rbc.ru/news/ynRY8tCcZG/selectel-planiruet-investirovat-10-mlrd-rublej-v-ekosistemu-ai-proektov/
[5] сообществе Практики FinOps в Telegram: https://t.me/+IxaVANzousNhZWIy
[6] Источник: https://habr.com/ru/companies/finops_ru/articles/964940/?utm_source=habrahabr&utm_medium=rss&utm_campaign=964940
Нажмите здесь для печати.