Меня зовут Андрей Коптелов, я долгие годы работаю с бизнес‑процессами и корпоративной архитектурой, теперь волею судеб мне приходится погружаться в тему искусственного интеллекта. По мере возможностей пытаюсь делиться своим скромным опытом в этой теме.
Представьте: вам поручили «внедрить искусственный интеллект (ИИ)», но без бюджета, и с требованием сохранить данные внутри периметра организации. Результат нужен вчера. Ваши подчиненные не умеют программировать, и используют большие языковые модели только в режиме чата.
Результат: через 8 рабочих часов вы развернёте локальную языковую модель, например, Qwen на Ollama, инсталлируете оркестратор на n8n, интегрируете n8n и Ollama, автоматизируете простейший процесс, например, регулярный анализ интернет‑сайтов с последующей рассылкой информации заинтересованным сторонам. Далее, при желании, настроите внутреннюю базу знаний в организации и получите рабочий прототип ассистента с использованием ИИ, который отвечает на вопросы по вашей базе знаний без отправки данных вовне.
Какую задачу решает эта инструкция — она демонстрирует, как за один рабочий день создать функциональный прототип ИИ‑агента для рутинных задач (анализ и генерация текста, поиск информации). Это пошаговый маршрут с результатами на каждом этапе, и этот маршрут я прошел сам, без опыта программирования.
Важно: этот подход подходит для пилотных проектов и доказательства концепции.
Ограничение: экономические предпосылки внедрения ИИ‑агента остаются за кадром этой инструкции, просто представим, что задача внедрения ИИ поставлена, и ее нужно быстро решить на уровне прототипа. И да, так бывает в организациях.
Исходные условия и ограничения
-
Бюджет — 0₽ (только открытое ПО).
-
Инфраструктура — ПК с 32 ГБ ОЗУ, 4+ ядра, 20+ ГБ свободного места.
-
Доступ — Права администратора на локальной машине.
-
Сеть — Интернет нужен только на этапе установки, далее — офлайн‑режим.
-
Компетенции команды — Базовые навыки работы с браузером и LLM.
-
Тип задач — Обработка текста: анализ, суммаризация, классификация, поиск.
Где это решение НЕ сработает:
-
Генерация изображений/видео — требуются карты NVIDIA и специализированные инструменты (ComfyUI, Stable Diffusion).
-
Высоконагруженные сценарии (>10 запросов/мин) — локальные модели на обычных компьютерах сильно медленнее облачных.
-
Задачи с жёсткими SLA по времени ответа — локальные LLM дают задержки 5–50 секунд.
7 шагов к рабочему прототипу автоматизированного процесса с применением ИИ
Каждый шаг имеет чёткий критерий успеха — не переходите к следующему, пока не завершили предыдущий.
Шаг 1. Разворачиваем большую языковую модель локально в Ollama
Ollama — это платформа с открытым исходным кодом, предназначенная для запуска больших языковых моделей (Large language model, LLM) локально, на вашем компьютере. Она позволяет работать с такими моделями, как Llama, Gemma, DeepSeek, Qwen и другими, не отправляя данные в облако.
Что делаем:
-
Идем на сайт Ollama (https://ollama.com/), регистрируемся, скачиваем и устанавливаем программу для вашей операционной системы.
-
Запускаем Ollama — обычно достаточно открыть приложение.
-
Для пробы загружаем одну модель, например, Qwen 3.5 9b.
-
Запускаем интерактивный чат с моделью.
Зачем: когда вы запускаете модель локально, ваши данные не уходят в облако, не становятся частью чьего‑то датасета и не зависят от санкций и блокировок. Но нужно учитывать, что модель отвечает медленно, не имеет инструментов и сильно слабее облачных аналогов.
Совет: если ПК слабый (менее 16 ГБ оперативной памяти) — выбирайте модель с пометкой:4b или:9b. Модели с:14b и выше требуют более мощного оборудования.
Ошибка: модель не скачивается. Проверьте наличие свободного места на диске (модели весят от 2 до 20+ ГБ).
Результат шага: модель Qwen работает на вашем железе, без интернета, без передачи данных вовне.
Шаг 2. Разворачиваем n8n локально с помощью Docker Desktop
n8n — это система для автоматизации процессов (workflow), которая позволяет объединять различные сервисы в единую цепочку действий без необходимости писать код. Большинство простых автоматизаций можно реализовать с помощью визуального редактора n8n, где нужно соединять блоки (ноды) между собой.
Docker — это платформа для контейнеризации приложений, которая позволяет упаковывать программы вместе со всеми их зависимостями в изолированные контейнеры, которые можно запустить на локальном компьютере.
Что делаем:
-
Устанавливаем Docker Desktop (https://www.docker.com/products/docker‑desktop/).
-
Находим n8n через Docker Desktop, загружаем к себе на локальную машину.
-
Запускаем n8n в Docker Desktop, получая рабочий инструмент автоматизации.
-
Открываем в браузере: # http://localhost:5678
Зачем: одной локальной LLM, развернутой в Ollama, недостаточно, чтобы ИИ‑агент стал частью бизнес‑процесса, его нужно «встроить» в последовательность автоматизированных действий.
Совет: после установки Docker Desktop обязательно перезагрузите компьютер.
Ошибка: n8n не открывается в браузере. Проверьте, что Docker Desktop запущен и работает (иконка в трее должна быть зеленой).
Результат шага: инструмент n8n запущен локально, что позволяет автоматизировать процесс.
Шаг 3. Интегрируем n8n и Ollama
В n8n есть стандартные ноды для вызова различных больших языковых моделей. Нас будет интересовать нода Ollama для вызова нашей локально установленной модели.
Что делаем:
-
В n8n создаём новый workflow, например, парсинг сайта hh.ru для поиска вакансий.
-
Добавляем в процесс ноду ИИ‑агента на Ollama, и настраиваем вызов локально развернутой Ollama с моделью, которую мы установили заранее.
-
Проверяем работу большой языковой модели.
-
Встраиваем ИИ‑агента в автоматизированный процесс.
Зачем: чтобы ИИ‑агент начал выполнять реальные задачи (отвечать на вопросы или анализировать данные), его нужно встроить в цепочку автоматизированных действий.
Совет: если n8n запущен в Docker, а Ollama — на ПК, используйте адрес host.docker.internal вместо localhost в настройках подключения к Ollama.
Результат шага: процесс автоматизирован n8n и настроен так, что он может отправлять запросы к локальной модели Ollama и получать от неё ответы.
Шаг 4. Пишем промпты для работы ИИ‑агента
Что делаем:
-
Просим нейросеть написать пропт: Роль + Контекст + Задача + Формат + Пример.
-
Тестируем промпт в режиме чата (такой режим есть у ИИ‑агента в n8n).
-
Улучшаем в цикле: запустили промпт → получили ответ → оценили → поправили промпт.
-
Переносим промпт в внутрь ИИ‑агента, встроенного в процесс.
Пример промпта:
|
Роль: Ты — эксперт по подбору персонала с 10-летним опытом в рекрутинге. Контекст: У нас есть резюме кандидата и описание вакансии. Нужно оценить соответствие. Задача: 1. Сравни требования вакансии с опытом кандидата. 2. Дай рекомендацию: «Подаваться на вакансию» или «Нет». Формат ответа: — Соответствия: [маркированный список] — Решение: [одна фраза] |
Зачем: модель лучше понимает чёткие, конкретные запросы.
Результат шага: ИИ‑агент правильно отрабатывает задачу в процессе в большинстве случаев (более 80%).
Шаг 5. Подключаем RAG (в случае необходимости ответов по внутренней базе)
В случае необходимости ИИ‑агенту отвечать по внутренней информации организации, придется использовать RAG (Retrieval‑Augmented Generation), если документов много и в контекстное окно они не поместятся, ведь часто просто закинуть в модель пачку PDF‑файлов — она либо обрежет их, либо проигнорирует середину, при этом выдаст уверенную, но ложную информацию.
Представьте, что вы даете ИИ «шпаргалку» перед экзаменом. Вы не пытаетесь впихнуть в его память весь учебник (он всё равно забудет), а даёте возможность быстро подсмотреть нужный параграф из вашей базы знаний прямо во время ответа.
Что делаем:
-
Подключаем базу с эмбедингами для создания векторной базы по документам в n8n.
-
Подключаем модель для эмбедингов в Ollama (я предварительно развернул mxbai‑embed‑large:latest на Ollama).
-
Подключаем созданную базу к агенту.
-
Загружаем документы в хранилище.
Результат шага: чат бот в процессе отвечает на вопросы по вашей базе знаний.
Шаг 6. Показываем прототип руководителю, поставившему задачу
Что делаем:
-
Зовем руководителя.
-
Рассказываем, как вы внедрили ИИ в процесс в пилотном режиме.
-
Показываем прототип, отвечая на вопросы.
-
Обсуждаем возможности ИИ.
Результат: Внедрение ИИ‑агента в бизнес‑процесс в пилотном режиме завершено.
Финальный совет: не стремитесь сделать «идеально» с первого раза. Цель прототипа — не замена людей в процессе, а доказательство ценности ИИ именно в этом процессе.
Коротко: чек‑лист внедрения ИИ в бизнес‑процесс
-
Определен процесс для пилотного внедрения
-
Развёрнута локально Ollama с большой языковой моделью
-
Развернут n8n для автоматизации процесса
-
Выбрана большая языковая модель под задачу и протестирована на реальных промптах
-
При необходимости подключена база знаний через RAG
Сохраните в закладки: к этому гайду вы вернётесь, когда будете внедрять ИИ в свои процессы.

Когда первый прототип ИИ‑агента уже собран, быстро становится понятно: развернуть модель и связать её с n8n — только половина задачи. Дальше начинается самое сложное: заставить LLM стабильно работать с вашими данными, не терять контекст, не выдавать красивые, но бесполезные ответы и встраиваться в реальный бизнес‑процесс, а не жить отдельным экспериментом «для демонстрации руководителю».
Если задача — не просто пообщаться с нейросетью, а научиться превращать LLM в рабочий инструмент для анализа данных, генерации контента и автоматизации процессов, этому посвящён курс OTUS «Промпт‑инжиниринг: внедрение ИИ в бизнес‑процессы». На курсе разбирают, как проектировать промпты под конкретные сценарии, работать с ограничениями моделей и собирать решения, которые можно повторять, проверять и улучшать.
Познакомиться с подходом можно на бесплатных открытых уроках курса. Они помогут оценить формат обучения, посмотреть, как преподаватель‑практик разбирает реальные задачи, и понять, где LLM может снять рутину уже сейчас — в работе с данными, текстами и контентными процессами.
➊ 4 июня в 20:00. «Продвинутый анализ данных с помощью LLM». Записаться
➋ 16 июня в 20:00. «Автоматизация креативного контента». Записаться
Автор: koptelovak


