- BrainTools - https://www.braintools.ru -
Для многих сейчас понятия ‘Business Intellegence’ и ‘Дашборд’ практически тождественны. А можете представить BI без дашбордов?
Давайте начнём с того, что дашборды бизнесу не нужны 🙂. Нужны ответы на вопросы. Дашборд – это инструмент, позволяющий отвечать на вопросы. А что, если вместо дашбордов будет другой инструмент? Это не фантастика, и возможно уже сейчас.
В классическом BI мы вручную пишем SQL, строим отчёты и визуализации. Но сегодня нейросети делают всё больше работы: сами пишут запросы, формируют дашборды и даже выдают инсайты. У этого направления уже есть название – Generative BI (GenBI). Адептов GenBI становится всё больше.
Представьте что есть только одно окно (как в ChatGPT), где можно задавать вопросы на родном языке и получать ответы на базе своих данных. Кроме этого, за минуты собираются отчёты, строятся графики, подключаются внешние источники для обогащения данных. Всё делают нейронки. Работает и на локальных компах и в облаке.
Snowflake предлагает Enterprise AI [1] – безопасный доступ к топовым LLM внутри корпоративного контура.
Кроме них, в гонке уже:
Salesforce
Microsoft
Tibco Spotfire [2]
и другие.
Компания WrenAI [4]делает GenBI сервис и рассказывает в блоге [5]о будущем BI.
Архитектура GenBI делится на 4 уровня (из статьи выше):
Уровень данных
Семантический уровень
Агентский уровень
Уровень представления
Главное отличие от классического BI – агентский уровень. Он отвечает за “человеческий” разговор с данными. На этом уровне нейросети преобразуют запросы пользователя в машинные запросы и алгоритмы. На семантическом уровне строятся связи с данными: что и откуда брать для запроса. На уровне представления: дашборды, инсайты, эдхоки и интерфейс диалога с машиной (тоже новая штука).
В корпоративных решениях решаются 2 ключевые проблемы нейронок для BI:
Галлюцинации. Если LLM натравить только на подготовленные и структурированные данные с их описанием, то LLM практически не даёт неверных ответов. Это подтвердилось и в наших локальных экспериментах с нейронками.
Безопасность данных. Большие вендоры предоставляют доступ до передовых LLM только внутри компании, наружу данные не уходят.
Следующая компания с AI решением в аналитике – Grab.
Для справки: Grab – сингапурская компания, первый южно-азиатский декакорн (стартап с оценкой $10+ млрд). Это “Uber + Delivery Club + Tinkoff” в одном приложении: такси, каршеринг, доставка еды и свой финтех. Работает во всей Юго-Восточной Азии.
Grab [6]разработал Jarvis (отсылка сами знаете к кому) – решение для поиска инсайтов. С ноября прошлого года Grab пишет в своём блоге [7]о разработке AI сервиса.
Из блога “How AI is driving faster data-driven decisions at Grab [8]“:
“Главный вызов – сделать данные доступными для всех сотрудников Grab. Раньше сотрудникам приходилось обращаться к внутренним аналитикам, осваивать сложные дашборды или писать SQL-запросы. Мы захотели упростить доступ к данным для всех, в пределах их роли, без специальных технических навыков. С появлением больших языковых моделей (LLM), умеющих переводить текст в SQL, мы увидели отличную возможность.
Так появился Jarvis – ассистент, позволяющий получать инсайты так же просто, как задавать вопрос.”
Две главные функции Jarvis:
Text-to-SQL engine: from question to query – от вопроса к запросу
Insights generator: from data to understanding – от данных к пониманию
Jarvis стал посредником между бизнес-пользователем и данными. Вся аналитическая цепочка: диалог, SQL, отчёты, инсайты теперь внутри одного ассистента. Время ответа снизилось с 4+ часов до 3-5 минут, 1000 отчётов сгенерировано в мае 2025г и 4000 ответов получено в июне 2025. Дальше Джарвиса хотят подключать к Слаку и внутренним инструментам.
Ниже – картинки из их блога. В верхней картинке из аналитической цепочки процессов выкидываются все функции кожаных аналитиков: диалог с заказчиком, SQL, репорты, исследования и инсайты. Флоу работы с данными меняется кардинально – работа аналитиков заменяется LLM.
➕Плюсы:
Self-service с “человеческим” лицом. То, о чём долго мечтали – просто говорить с данными на человеческом языке.
Не надо кастомизировать дашборды и отчёты под каждый отдел. Всё решается глубиной промта.
Вылетает вся цепочка аналитики, от бизнес/системного анализа до разработки дашбордов и источников под них. Это колоссальная экономия времени и резкое снижение Time-to-market.
➖Минусы:
Нельзя открыто подключать самые мощные нейросети к корпоративным данным из-за соображений безопасности. Надо делать создавать и совершенствовать свои LLM внутри компании, а это не все могут.
Нужно по-другому собирать и готовить данные для LLM: включать описания, словари и т.п.. Здесь предстоит серьёзная работа с семантическим слоем
Подход не изучен ещё, может быть много препятствий для внедрения.
Делаем пет-проект автоматического анализа зарплат VILKY и экспериментируем с подходом GenBI, подключаем разные LLM к базам данных и генерируем отчёты.
На домашнем компьютере несложно поднять базу данных и по MCP подключить к ней LLM. Claude Desktop c Sonnet / Opus может собирать информацию о данных прямо из базы, генерировать отчёты и инсайты. Правда, нужна Pro подписка.
MCP (Model Context Protocol [9]) – протокол общения нейросетей с внешним миром. По нему к LLM можно подключать любые источники данных или системы управления, и всё это по одному универсальному стандарту.
Собрали все вакансии Habr Career с 2012 года с описаниями, всё это в PostgreSQL. Claude Desktop может по промптам ходить в базу данных и генерировать отчёты PDF, HTML или просто ответы. MCP Server и базу данных можно развернуть на локальном компьютере в докере или в облаке. Получается довольно круто – Claude размышляет, генерирует ряд SQL запросов (их можно посмотреть), вытаскивает за минуты инсайты, для которых аналитику надо больше часа. Автоматические PDF отчеты скидываем в tg канал [10]. Понятно, что нужно проверять, добавлять уточнения, внешнюю информацию и т.д.. Сюда PDF не прикрепляется, поэтому скрин:
Промпты для базы данных вакансий могут как быть простые: “Найди релевантные вакансии для резюме (прикладываем документ резюме)”, так и сложные, например: “Составь отчёт об эволюции аналитики и тренды инструментов за последние 10 лет”. Для такого будет примерно 20 SQL запросов.
То, о чём мечтают менеджеры – просто разговаривать с данными, уже реальность. Биайщики и аналитики в будущем, скорее всего, превратятся в архитекторов подобных систем. Дашборды вряд ли быстро умрут, но их число в компании можно сократить. GenBI сейчас – устойчивое понятие, подразумевающее генерацию инсайтов и инструментов для принятия решений на основе данных. Лидеры рынка идут в этом направлении. BI-системы эволюционируют, и если их не перестраивать сегодня – завтра можно остаться в хвосте рынка.
Автор: alexandervarlamov
Источник [11]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/18979
URLs in this post:
[1] Enterprise AI: https://www.snowflake.com/en/product/ai/
[2] Tibco Spotfire: https://sageitinc.com/blog/tibco-spotfire-generative-ai-revolution
[3] Pyramid Analytics: https://www.pyramidanalytics.com/generative-bi/
[4] WrenAI : https://getwren.ai/
[5] блоге : https://medium.com/wrenai/the-future-of-business-intelligence-the-generative-bi-genbi-d5c18371a45f
[6] Grab : https://www.grab.com/sg/
[7] блоге : https://www.grab.com/sg/inside-grab/stories/ai-analytics-tool-generate-insights/
[8] How AI is driving faster data-driven decisions at Grab: https://www.grab.com/sg/inside-grab/stories/how-ai-is-driving-faster-data-driven-decisions-at-grab/
[9] Model Context Protocol: https://en.wikipedia.org/wiki/Model_Context_Protocol
[10] tg канал: https://t.me/vilky_it
[11] Источник: https://habr.com/ru/articles/942766/?utm_source=habrahabr&utm_medium=rss&utm_campaign=942766
Нажмите здесь для печати.