- BrainTools - https://www.braintools.ru -

От визуализации к действию: как ДРАКОН+LLM может стать фундаментом для агентских ИИ

От визуализации к действию: как ДРАКОН+LLM может стать фундаментом для агентских ИИ - 1

Введение: Как потратить $62 миллиона на ИИ, который даёт смертельные советы

В 2013 году один из ведущих онкологических центров мира, MD Anderson, и IT-гигант IBM запустили амбициозный проект. Под громким названием “Oncology Expert Advisor” они собирались совершить революцию в лечении рака с помощью суперкомпьютера Watson.

Четыре года спустя проект был закрыт. $62 миллиона потрачены впустую.

Но хуже всего была не потеря денег. Оказалось, Watson давал опасные медицинские рекомендации. В одном из задокументированных случаев ИИ посоветовал дать пациенту с внутренним кровотечением препарат, который это кровотечение только усилил бы. Корень проблемы вскрылся быстро: систему учили не на данных реальных пациентов, а на гипотетических, выдуманных случаях. Врач из другой больницы, где тестировали систему, выразился предельно ясно: “Этот продукт – полное дерьмо. Мы купили его для маркетинга”.

95% – это не просто статистика

История с IBM Watson – не уникальна. Похожих историй множество:

  • Zillow потерял $880 миллионов и уволил 2000 человек из-за ИИ, который неправильно оценивал дома.

  • McDonald’s закрыл программу с IBM после того, как ИИ начал заказывать клиентам по 260 наггетсов.

  • Чат-бот компании DPD назвал свою же компанию “худшей службой доставки в мире” и использовал нецензурную лексику.

95% корпоративных ИИ-пилотов заканчиваются провалом – и это не случайность [1]. В глобальном масштабе мы наблюдаем ту же закономерность, что и с ядерными технологиями: развитие опережает понимание последствий [2] . Но если на макроуровне общество тешит себя иллюзией «мы не допустим», то на микроуровне бизнеса эта иллюзия оборачивается миллиардными убытками. Компании повторяют [3] те же ошибки [4], что и государства: внедряют ИИ вслепную, не понимая его логики и последствий.

Исследование компании Celonis показало: 89% бизнес-лидеров признают, что ИИ без понимания бизнес-процессов просто не работает. Компании пытаются “натянуть” умные алгоритмы на хаос – и это заканчивается катастрофой.

Альтернатива из СССР вместо дорогих западных решений

Те 5%, кто добивается успеха – Amazon, Google, Microsoft – используют дорогие западные инструменты. Их решения для анализа процессов стоят миллионы долларов и часто недоступны для среднего бизнеса в России. Например, лидер рынка Process Mining, компания Celonis, оценивается в $2.46 миллиарда. Платформы для моделирования от IBM, Nintex или Microsoft требуют не только дорогих лицензий, но и долгой настройки.

В этой статье я покажу, как подход ДРАКОН + LLM + Агент ИИ может стать доступной альтернативой. Мы разберём, как, используя LLM и понятные визуальные схемы, избежать тех самых ошибок, которые стоили IBM и Zillow миллиарды, и наконец-то заставить ИИ приносить реальную пользу.

Глава 1: Четыре ошибки, которые стоили компаниям миллиарды долларов

Жестокая статистика больших провалов

За последние несколько лет мы стали свидетелями десятков громких провалов ИИ:

  • IBM Watson Health: $4 миллиарда инвестиций, продан за бесценок.

  • Zillow Offers: $880 миллионов убытков, 2000 увольнений.

  • MD Anderson: $62 миллиона потеряно на проекте с IBM.

  • McDonald’s + IBM: программа закрыта в более чем 100 ресторанах.

Общий знаменатель: 95% корпоративных ИИ-пилотов проваливаются. Это не просто цифры — это миллиарды потерянных долларов и тысячи разрушенных карьер.

Ошибка №0: Действовать в логике “Общество не допустит”

Прежде чем разбирать тактические ошибки, стоит назвать стратегическую. Многие руководители подсознательно верят, что “опасный ИИ” – это проблема будущего, которую “регуляторы не допустят”, а их задача – просто использовать технологии здесь и сейчас. Это – бизнес-версия иллюзии [2] общественного контроля.

Пока государства спорят о регулировании AGI (искусственного общего интеллекта [5]), обычные бизнес-ИИ уже сегодня:

  • – Приносят убытки (Zillow)

  • – Дают опасные рекомендации (IBM Watson)

  • – Утекают корпоративные тайны (Samsung)

  • – Создают юридические риски (алгоритмический расизм)

Методология ДРАКОН+LLM – это не просто способ автоматизации. Это практический ответ на вызов “эпистемократии” – власти непрозрачного знания. Мы не можем ждать, пока “общество решит” проблему черных ящиков, но мы можем сделать наши собственные системы прозрачными и управляемыми.

Ошибка №1: Гнаться за хайпом, а не за результатом

История с IBM Watson и MD Anderson – классический пример этой ошибки. IBM обещала “искоренить рак”. Онкологический центр поверил в хайп и вложил $62 миллиона.

Маркетинг обещал: революцию в онкологии и персонализированное лечение.
Реальность оказалась иной: опасные рекомендации и ни одного пациента, вылеченного с помощью Watson.

Что говорят исследования: 89% руководителей признают, что внедрение ИИ без понимания процессов – пустая трата времени. Но соблазн “быть в тренде” часто оказывается сильнее здравого смысла.

Ошибка №2: Превратить ИИ в “чёрный ящик”

В Zillow были уверены, что их ИИ-алгоритм сможет оценивать дома лучше любого риелтора.

На самом деле в самой компании никто толком не понимал, как ИИ приходит к своим выводам. И тут рынок недвижимости пошёл вниз, алгоритм этого не заметил и скупал и скупал дома по завышенным ценам. В итоге у Zillow на балансе оказалось 7000 домов, которые в дальнейшем пришлось продавать себе в убыток.

Результат: $880 миллионов потерь, 2000 уволенных сотрудников и падение акций на $9 миллиардов.

В этом и была ключевая проблема: Zillow пыталась “заменить людей алгоритмом”, вместо того чтобы “усилить людей с помощью ИИ”. Когда “чёрный ящик” начал сбоить, остановить его было уже некому.

Ошибка №3: ИИ без карты процесса = хаос

Когда McDonald’s запускала ИИ для приёма заказов в drive-thru, никто не продумал чёткую схему процесса. ИИ не знал, где он должен действовать сам, а где лучше позвать на помощь человека.

Результат: система начала творить абсурдные вещи – увеличивать заказы до 260 наггетсов, добавлять сотни лишних позиций и не понимать простые просьбы клиентов.

Программу пришлось полностью закрыть, а история стала вирусным мемом в соцсетях.

Вывод: без карты процесса, которая чётко разграничивает зоны ответственности человека и ИИ, автоматизация превращается в хаос.

Ошибка №4: “У нас всё под контролем” (а на деле – нет)

В мае 2023 года инженеры Samsung “случайно” скормили в ChatGPT конфиденциальный исходный код и записи внутренних совещаний.

Компания думала, что у неё есть “процессы работы с ИИ”. Но на практике сотрудники использовали ChatGPT как хотели, без всякого контроля. В итоге Samsung пришлось полностью запретить использование ChatGPT, а коммерческие тайны навсегда остались на серверах OpenAI.

Подобные истории были у DPD (бот, ругающий свою компанию) и Chevrolet (бот, “продавший” машину за $1). Во всех случаях руководство было уверено, что контролирует ситуацию, но реальность оказалась другой.

Вывод: Иллюзия контроля – одна из самых опасных ошибок при работе с ИИ.

Глава 2: ДРАКОН+LLM как навигационная карта для агентских ИИ

Провалы из первой главы случились по одной и той же элементарной причине: компании пытались внедрять ИИ вслепую, слабо понимая, как на самом деле устроен их бизнес.

И тут важно понимать: если вы в принципе задумались о том, чтобы описать и нарисовать свои процессы, вы уже на верном пути. Не так уж и важно, в чём вы это сделаете – в навороченном BPMN, старом добром IDEF0 или просто накидаете схемы в Miro. Сам факт того, что вы пытаетесь перенести хаос из голов сотрудников на экран, — это уже половина успеха.

В этой статье мы делаем ставку на связку ДРАКОН+LLM. Почему? Потому что, как показывает наш опыт [6], для среднего бизнеса это самый прямой и короткий путь к результату. Этот подход проще для понимания, быстрее во внедрении и не требует бюджетов, сопоставимых со стоимостью крыла самолёта. Он позволяет создать ту самую «приборную панель» для вашего бизнеса, которая превратит поток сумбурных данных в понятные схемы и поможет принимать верные решения. О том, почему традиционные подходы часто оказываются слишком громоздкими, я подробно писал в предыдущей статье серии: Чем болен средний бизнес? Статья 3. Почему ваш бизнес хромает. [7]

LLM как “архитектор агентов”

В нашем подходе большая языковая модель (LLM) – это не просто “умный чат”. Изучая понятную ДРАКОН-схему и детальные данные о бизнесе, LLM превращается в помощника-архитектора, который предлагает черновые варианты для внедрения ИИ-агентов.

Реальный пример: сеть СТО с 4 постами и 30-40 заявками в день

Владелец СТО обращается к аналитику с запросом: “Хочу внедрить агентских ИИ, чтобы снизить нагрузку на людей и убрать постоянные косяки с записью”.

Аналитик начинает работу:

  1. Изучает текущие процессы СТО в течение недели

  2. Строит детальную ДРАКОН-схему процессов “как есть”

  3. Собирает конкретные цифры: сколько времени занимает каждая операция, где возникают ошибки

  4. Передаёт всё это LLM с детальным запросом

Запрос аналитика к LLM:

“Проанализируй прикреплённую ДРАКОН-схему процессов СТО и данные замеров.

КОНТЕКСТ:

  • 4 поста, 3 механика, оператор, кладовщик

  • 30-40 заявок в день

  • Текущие системы: Google Calendar для записи, Excel для учёта запчастей, WhatsApp для коммуникации

ЗАМЕРЕННОЕ ВРЕМЯ ОПЕРАЦИЙ:

  • Запись клиента оператором: 7 минут (поиск окна в графике, уточнение у механиков, внесение данных)

  • Поиск истории обслуживания механиком: 15 минут (просмотр Excel-файлов за несколько лет)

  • Подготовка запчастей к приезду: 20 минут (поиск в Excel, сбор со склада)

ПРОБЛЕМЫ:

  • Двойная запись на одно время: 3-5 случаев в неделю

  • Забыли подготовить запчасти: 10-15 случаев в неделю

  • Механик не видит историю обслуживания: каждая вторая заявка

ЗАДАЧА:
Предложи внедрение многоагентной системы с тремя уровнями автоматизации:

  • Уровень 1: 30% агент, 70% человек (для привыкания команды)

  • Уровень 2: 50% агент, 50% человек (оптимальный баланс)

  • Уровень 3: 70% агент, 30% человек (максимальная автоматизация)

Для каждого уровня предложи:

  • Конкретные агенты с описанием функций

  • Разделение работы между агентом и человеком

  • Экономию времени (рассчитай на основе замеренных данных)

  • Ориентировочное время разработки

  • Возможные риски”

LLM предлагает черновой вариант, который аналитик дорабатывает и адаптирует под реальные условия СТО. Вот что получилось после совместной работы аналитика и LLM:

УРОВЕНЬ 1: Легкий старт (30% агент, 70% человек)

Философия этого уровня: Дать команде привыкнуть к агентам без стресса [8]. Агенты здесь – это помощники, а не замена людей.

Состав агентов:

Агент

Что делает агент

Что делает человек

Баланс

№1 “Помощник оператора”

Показывает на экране: свободные окна в графике, историю обслуживания авто, рекомендуемые работы по пробегу

Принимает звонок, общается с клиентом, принимает решение о записи, вносит данные в систему

30% / 70%

№2 “Напоминатель”

За 2 часа до записи создаёт задачу: “Позвонить клиенту Иванову, уточнить приезд”

Звонит клиенту, общается, вносит результат звонка

30% / 70%

Что получает владелец:

Параметр

Значение

Освобождаем времени

5-7 часов в неделю

Насколько самостоятелен ИИ

30%

Потребуется времени на разработку

2-3 недели

Как быстро запустим

2-3 недели

Вероятность провала

5%

Когда окупится

2-3 месяца

Кому это подходит: Тем, кто только начинает знакомиться с агентами. Риск минимальный, команда постепенно привыкает к новому помощнику.

УРОВЕНЬ 2: Средний (50% агент, 50% человек)

Философия этого уровня: Агенты уже не просто подсказывают – они предлагают готовые решения. Человек выбирает, но половину работы делает ИИ.

Состав агентов:

Агент

Что делает агент

Что делает человек

Баланс

№1 “Умный диспетчер”

Автоматически анализирует загрузку постов, тип работ, квалификацию механиков и предлагает 3 лучших варианта времени

Выбирает из предложенных вариантов, общается с клиентом, подтверждает запись

50% / 50%

№2 “Автозвонок”

Сам звонит клиенту за 2 часа: “Напоминаем о записи”. Если не берёт трубку – отправляет SMS

Обрабатывает отмены и нестандартные ситуации

50% / 50%

№3 “Помощник механика”

За 30 минут до приезда отправляет механику: историю обслуживания, пробег, какие работы планируются, когда менялось масло (ДВС, коробка, мосты)

Проводит работы, вносит новые данные после завершения

50% / 50%

№4 “Контролёр склада”

За 30 минут формирует список запчастей: “Фильтр масляный, 5л Shell 5W-40”, отправляет кладовщику

Физически собирает запчасти со склада

50% / 50%

Что получает владелец:

Параметр

Значение

Освобождаем времени

15-20 часов в неделю

Насколько самостоятелен ИИ

50%

Потребуется времени на разработку

6-8 недель

Как быстро запустим

6-8 недель

Вероятность провала

20%

Когда окупится

4-6 месяцев

Кому это подходит: Тем, у кого Уровень 1 работает безупречно 2-3 месяца. Команда доверяет агентам и готова делегировать больше задач.

УРОВЕНЬ 3: Продвинутый (70% агент, 30% человек)

Философия этого уровня: Агенты работают почти автономно. Человек контролирует и вмешивается только в нестандартных ситуациях.

Состав агентов:

Агент

Что делает агент

Что делает человек

Баланс

№1 “Автономный диспетчер”

Сам принимает звонок голосом, ведёт диалог с клиентом, уточняет марку авто и тип работ, предлагает время, записывает в систему

Контролирует лог звонков раз в день, вмешивается только при сложных случаях

70% / 30%

№2 “Полный цикл напоминаний”

За сутки – SMS, за 2 часа – голосовой звонок, за 30 минут – Push. Если клиент не приехал – через 15 минут создаёт задачу оператору

Обрабатывает отмены и переносы по запросу агента

70% / 30%

№3 “Интеллектуальный помощник механика”

Автоматически открывает карточку авто на планшете механика при подъезде клиента, показывает всю историю, подсвечивает критические моменты: “Масло в коробке не менялось 45 000 км!”

Просто вносит новые данные после работ: текущий пробег, что сделано

70% / 30%

№4 “Автономный управляющий складом СТО”

При записи клиента сам резервирует запчасти, за 30 минут отправляет задачу кладовщику, отслеживает остатки, автоматически формирует заявки на основной склад

Физически готовит запчасти, принимает товар с основного склада

70% / 30%

№5 “Умный закупщик”

Анализирует историю расхода запчастей, прогнозирует потребность [9] на месяц вперёд, автоматически формирует заказ на основной склад за неделю до дефицита

Утверждает заказ, контролирует бюджет

70% / 30%

Что получает владелец:

Параметр

Значение

Освобождаем времени

30-35 часов в неделю

Насколько самостоятелен ИИ

70%

Потребуется времени на разработку

12-16 недель

Как быстро запустим

12-16 недель

Вероятность провала

35%

Когда окупится

8-12 месяцев

Кому это подходит: Только после того, как Уровни 1 и 2 работают как часы. Команда полностью доверяет агентам и не боится передать им больше ответственности.

Три уровня в одной таблице: что выбрать?

Сравнение

Уровень 1

Уровень 2

Уровень 3

Экономия каждую неделю

5-7 часов

15-20 часов

30-35 часов

Самостоятельность агентов.

30%

50%

70%

Сколько агентов работает

2

4

5

Времени на разработку

2-3 недели

6-8 недель

12-16 недель

Шанс, что не взлетит

5%

20%

35%

Когда начнёт окупаться

2-3 месяца

4-6 месяцев

8-12 месяцев

Совет от аналитика (на основе рекомендаций LLM):

“Не пытайтесь сразу прыгнуть на третий уровень – это самый верный путь к провалу. Начните с первого. Дайте команде привыкнуть к тому, что у них появились цифровые помощники. Через 2-3 месяца, когда всё работает гладко, переходите ко второму уровню. И только когда агенты станут для вашей команды такими же естественными, как телефон или компьютер, можно думать о третьем уровне.”

Что это даёт владельцу СТО:

На основе этого анализа аналитик отрисовывает три варианта ДРАКОН-схем – для каждого уровня автоматизации. Владелец СТО видит визуально, как изменится работа его бизнеса на каждом уровне, понимает риски и может самостоятельно рассчитать бюджет, умножив время разработки на стоимость часа работы специалистов в его регионе.

Это не абстрактные обещания “внедрим ИИ”, а конкретный инженерный план с временными рамками, рисками и чёткими зонами ответственности между человеком и агентом.

Такой подход превращает связку “Аналитик + LLM + ДРАКОН” в мощный инструмент архитектуры бизнеса, где каждое решение обосновано реальными данными и визуализировано в понятных схемах.

От визуализации к действию: как ДРАКОН+LLM может стать фундаментом для агентских ИИ - 2

Глава 3: Методология внедрения: от карты процессов к работающим агентам

Успешное внедрение агентских ИИ начинается не с покупки дорогого софта, а с понимания того, как на самом деле работают ваши процессы. Вот пошаговый план, как это сделать правильно.

Шаг 1: Построение “карты процессов”

Это фундамент. Сначала наводим порядок в головах и на бумаге.

  • LLM “переваривает” ваши “цифровые следы” – переписку, логи CRM, документы.

  • Человек-аналитик на основе этого отчёта рисует понятную ДРАКОН-схему процесса “как есть”.

  • На этой схеме сразу становятся видны все “проблемы”: узкие места, дублирование функций и лишние шаги.

Шаг 2: Поиск “горячих точек” для агентов

Теперь, когда у нас есть карта, ищем на ней места, где робот будет полезнее всего. Идеальные кандидаты – это скучные, повторяющиеся задачи, где ошибка не приведёт к катастрофе. LLM помогает проанализировать схему и составить список таких задач с приоритетами.

Шаг 3: Проектирование “гибридного процесса”

Главная идея – не “человек ИЛИ агент”, а “человек И агент”. На ДРАКОН-схеме мы чётко разделяем зоны ответственности с помощью цветов. Это делает процесс прозрачным и понятным для всей команды.

Четкое разделение зон ответственности на ДРАКОН-схеме — это не просто организационная мера. Это прямой ответ на риск возникновения “эпистемократии” внутри компании. Мы предотвращаем ситуацию, когда решения, влияющие на бизнес, принимаются системой, логику [10] которой не понимают ни исполнители, ни руководители. В гибридной модели человек всегда остается “в контуре”, сохраняя суверенитет над ключевыми решениями.

Шаг 4: Тестирование в “теневом режиме”

ДРАКОН-схема становится техническим заданием для разработчика. Но прежде чем дать агенту свободу, мы запускаем его в “теневом режиме”. Он работает параллельно с человеком, но его решения пока не применяются. Мы просто сравниваем результаты, выявляем ошибки и обучаем агента на реальных данных без риска для бизнеса.

Шаг 5: Переход к автономии и непрерывный контроль

Когда агент показывает стабильно высокий результат (например, 95% его решений совпадают с решениями человека), мы постепенно даём ему больше полномочий. Важно, что агент не просто работает, но и продолжает собирать данные о процессе. Раз в месяц LLM анализирует эти данные и предлагает новые улучшения. Так мы запускаем замкнутый цикл оптимизации, где процессы улучшаются сами собой, почти без нашего участия.

Глава 4. От хаоса к карте: как ДРАКОН+LLM предотвращает «ученика Герострата»

Технологический гуманизм начинается не с запретов, а с понятности.

История с IBM Watson, Zillow и McDonald’s – это не просто провалы технологий. Это провалы доверия. Компании вложили миллиарды, потому что поверили в «чёрный ящик», который «сам всё решит». Но когда ящик начал давать смертельные рекомендации, заказывать 260 наггетсов или скупать дома по завышенным ценам, оказалось: никто не понимал, как он работает — и никто не мог его остановить.

Это и есть суть «ученика Герострата» из рассказа Сергея Шарова: человек, который поджигает храм не из злого умысла, а потому что не понимает, что делает. Он видит результат – «работает» – и считает это достаточным.

Но есть выход. И он не в том, чтобы запретить ИИ. А в том, чтобы заставить его говорить на языке человека.

Почему 95% пилотов проваливаются?

Исследование Celonis показало: 89% бизнес-лидеров признают, что ИИ без понимания бизнес-процессов просто не работает. Но вместо того чтобы сначала навести порядок в головах и на бумаге, компании натягивают умные алгоритмы на хаос.

Результат предсказуем:

  • Watson Health – опасные рекомендации на вымышленных данных,

  • Zillow – $880 млн убытков из-за «чёрного ящика»,

  • McDonald’s – чат-бот, который уничтожил доверие клиентов.

Во всех случаях ИИ не был злым. Он был непонятым. И потому – неконтролируемым.

ДРАКОН как язык человеческого разума

Здесь вступает в игру ДРАКОН – не просто нотация, а когнитивный инструмент, созданный под биологические ограничения человеческого мозга [11].

Как показали исследования когнитивной психологии (Коуэн, 2001), наша рабочая память [12] может удерживать всего 4-5 элементов одновременно. BPMN с его сотней символов – это не инструмент, а когнитивная ловушка. ДРАКОН же построен на обратном принципе: простота, строгость, визуальность.

Он не пытается заставить мозг работать как компьютер. Он заставляет машину говорить на языке человека.

Именно поэтому ДРАКОН смог объединить 400 научных институтов для космической программы СССР. Если он справился с космосом, он справится и с вашим складом, СТО или отделом продаж.

LLM как архитектор агентов

Но ДРАКОН – это только карта. А кто будет строить по ней?

Здесь на сцену выходит LLM. Но не как «умный чат», а как архитектор агентских систем.

Когда LLM получает на вход:

  • чёткую ДРАКОН-схему процесса «как есть»,

  • реальные данные по времени операций,

  • список текущих проблем,

– он перестаёт галлюцинировать. Он начинает предлагать конкретные, измеримые решения.

В примере со СТО LLM не просто сказал: «Сделайте ИИ». Он предложил три уровня автоматизации – от 30% до 70% – с чётким разделением зон ответственности между человеком и агентом, расчётами экономии времени и оценкой рисков.

Это не магия. Это инженерия доверия.

Как это предотвращает «ученика Герострата»

Владелец СТО, получивший три ДРАКОН-схемы, видит всё:

  • что делает ИИ,

  • где человек остаётся в цикле,

  • какие риски возникают на каждом уровне.

Он не слепо доверяет. Он осознанно выбирает. И если что-то пойдёт не так – он сможет оспорить решение, потому что у него есть карта.

Это и есть технологический гуманизм в действии: ИИ не бог и не дьявол. Он инструмент, подотчётный человеку.

Эпистемическая грамотность для всех

Но есть и более глубокий уровень. В Африке и Азии алгоритмы кредитного скоринга уже сегодня исключают мелких предпринимателей, потому что у них нет «цифрового следа». Это – эпистемологическое неравенство в чистом виде.

Однако в Кении и Индии уже запущены пилоты, где местные стартапы обучают сообщества «читать ИИ»: как интерпретировать отказ, как оспорить решение, как дообучать модели на локальных данных.

Это не запрет. Это эпистемическая грамотность. И ДРАКОН+LLM – её идеальный инструмент.

Потому что право на понимание – это первое условие справедливости.

Вывод главы

ДРАКОН+LLM – это не просто техническое решение. Это этический выбор.

Он отвергает мистику «чёрного ящика» и предлагает прозрачность, контроль, участие.
Он не ускоряет апокалипсис. Он строит мост между человеком и машиной.

И в эпоху, когда ИИ уже нечеловеческий, но ещё не неподконтрольный, этот мост – наша главная надежда.

Послесловие. В память о создателе

Пока я писал эту статью, пришла тяжёлая новость: 21 октября 2025 года ушёл из жизни Владимир Даниелович Паронджанов – создатель языка ДРАКОН.

От визуализации к действию: как ДРАКОН+LLM может стать фундаментом для агентских ИИ - 3

Именно его книги и идеи помогли мне выйти из лабиринта BPMN, увидеть хаос в бизнесе не как неизбежность, а как задачу, которую можно решить. Благодаря ДРАКОНу я впервые смог заставить бизнес и IT говорить на одном языке – и именно он вдохновил меня писать статьи на Хабр.

Владимир Даниелович не просто создал нотацию. Он создал инструмент для человеческого мышления [13] – простой, строгий, дружелюбный. И пока мы им пользуемся, его работа продолжается.

Светлая память…

Автор: SergiiKol

Источник [14]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/21073

URLs in this post:

[1] случайность: http://www.braintools.ru/article/6560

[2] последствий: https://habr.com/ru/articles/958862/

[3] повторяют: http://www.braintools.ru/article/4012

[4] ошибки: http://www.braintools.ru/article/4192

[5] интеллекта: http://www.braintools.ru/article/7605

[6] опыт: http://www.braintools.ru/article/6952

[7]  Чем болен средний бизнес? Статья 3. Почему ваш бизнес хромает.: https://habr.com/ru/articles/940210/

[8] стресса: http://www.braintools.ru/article/9548

[9] потребность: http://www.braintools.ru/article/9534

[10] логику: http://www.braintools.ru/article/7640

[11] мозга: http://www.braintools.ru/parts-of-the-brain

[12] память: http://www.braintools.ru/article/4140

[13] мышления: http://www.braintools.ru/thinking

[14] Источник: https://habr.com/ru/articles/953660/?utm_source=habrahabr&utm_medium=rss&utm_campaign=953660

www.BrainTools.ru

Rambler's Top100