Генерация BPMN с помощью LLM в диалоговом режиме: эксперименты и выводы
От переводчика: Авторы свежей научной работы попробовали заставить обычные открытые LLM (от 1B до 70B) генерировать валидный BPMN-XML прямо в чате по текстовому описанию процесса.Если вкратце, то без дообучения — полный провал. 80% токенов тратится на XML-мусор, модели сыплются на синтаксисе, забывают ветки и галлюцинируют теги. Работает только на больших моделях и то не очень хорошо.Но вроде просматривается рабочий вариант для генерации BPMN — берем 7–13B модель, дообучаем через LoRA/QLoRA на нормальном датасете, переходим на компактный JSON вместо XML и добавляем Preference Tuning + CoT. Тогда может быть взлетит.
Пока вы боитесь потерять работу из-за ИИ, бизнес боится потерять вас
В последние пару лет всё чаще можно услышать фразу: «Мы уже не знаем, где искать квалифицированных сотрудников: в России дефицит кадров».
Stack Overflow станет поставщиком данных ИИ
В рамках конференции Microsoft Ignite компания Stack Overflow представила новый набор продуктов для корпоративного стека искусственного интеллекта. Продукт Stack Internal позволит превратить классический форум для решения проблем в инструмент для перевода человеческого опыта в формат, доступный для ИИ, обещают в компании.
Идея для осенних холодных вечеров: пересмотреть выступления с IT Elements 2025
Привет! Это снова IT Elements. Надеемся, вы скучали. 3,5 тыс. участников офлайн, 110 тыс. онлайн-зрителей, 200 спикеров, 6 залов и 108 часов экспертного контента — это если кратко об итогах конфы, масштабы в этом году были нешуточные 🙂 На мероприятии своим опытом делились все — от топ-менеджеров крупных банков и промышленных предприятий до опытных инженеров, имеющих занимательные кейсы. Кстати, если вы хотите стать спикером в следующем году, следите за обновлениями в нашем TG-сообществе, мы заранее откроем Call For Papers.
Вы написали AI-агента, а что дальше? Разбираем Google Vertex AI Agent Engine — спасательный круг или золотая клетка?
Давайте честно: написать умного AI-агента сегодня — это самая простая часть работы. Собрали LangChain или LangGraph, прикрутили API OpenAI или Gemini, заставили это работать у себя в терминале — красота! Вы чувствуете себя Тони Старком.Но настоящий кошмар начинается, когда возникает вопрос: "А как выкатить это в продакшен?"И тут вы понимаете, что ваш скрипт на Python — это не бэкенд. Вам нужно думать про:Где хранить историю диалогов (Redis? Postgres?).Как масштабировать это, если придет 1000 юзеров?Как сделать так, чтобы агент, выполняя код, не "уронил" сервер?Бесконечные IAM-права, ключи, VPC и безопасность.

