Как мы добавили ИИ-ассистента в рабочий чат и что из этого вышло. .NET.. .NET. *nix.. .NET. *nix. chatops.. .NET. *nix. chatops. Claude.. .NET. *nix. chatops. Claude. DevOps.. .NET. *nix. chatops. Claude. DevOps. github.. .NET. *nix. chatops. Claude. DevOps. github. IT-компании.. .NET. *nix. chatops. Claude. DevOps. github. IT-компании. it-процессы.. .NET. *nix. chatops. Claude. DevOps. github. IT-компании. it-процессы. llm.. .NET. *nix. chatops. Claude. DevOps. github. IT-компании. it-процессы. llm. автоматизация.. .NET. *nix. chatops. Claude. DevOps. github. IT-компании. it-процессы. llm. автоматизация. искусственный интеллект.. .NET. *nix. chatops. Claude. DevOps. github. IT-компании. it-процессы. llm. автоматизация. искусственный интеллект. Управление разработкой.

У нас небольшая IT-компания — SaaS-продукт, 5 разработчиков, 4 менеджера, CEO. Обычный стек: PHP + Vue, MySQL, GitHub, Telegram для коммуникации. Ничего революционного.

Мы занимаемся автоматизацией бизнес-процессов. Но в какой-то момент поймали себя на мысли: мы автоматизируем чужие рабочие процессы, а свои — нет. Внутри компании всё держится на CEO, который вручную отвечает на вопросы, формулирует задачи и следит за клиентами.

Тогда мы решили: сначала автоматизируем себя. Полностью, под ключ. Только пройдя этот путь самостоятельно, мы поймём, как правильно автоматизировать других.

Так в рабочем Telegram-чате появился ИИ-ассистент. Не как эксперимент, а из необходимости: CEO надоело отвечать на одни и те же вопросы. Прошло несколько месяцев — и ИИ стал полноценным членом команды, которого менеджеры зовут по имени.

Расскажу, как это устроено технически, покажу реальные кейсы из переписки и честно скажу, где ИИ справляется отлично, а где пока бесполезен.

Что за ассистент и как он устроен

Ассистент живёт в Telegram-группе, где общаются все сотрудники — от CEO до менеджеров по продажам. Технически это бот на базе Claude, который:

  1. Видит весь контекст чата — не отдельные сообщения, а ветки обсуждений. Когда менеджер спрашивает «а это работает?» — ассистент понимает, о чём речь, по предыдущим 20 сообщениям.

  2. Имеет доступ к кодовой базе — может найти, как реализована конкретная функция, какие параметры принимает API, где хранятся данные. Это не RAG по документации, а прямой доступ к актуальному коду проекта.

  3. Может создавать задачи на GitHub — получает команду «выпиши задачу Диме», анализирует контекст обсуждения, формулирует техническое описание и создаёт issue с правильными labels.

  4. Знает клиентов — имеет доступ к CRM-базе: может проверить, что за клиент звонил, какой у него тариф, когда последний раз заходил, что обсуждали менеджеры.

  5. Работает 24/7 — отвечает в 3 ночи, в выходные, в праздники. Не болеет, не уходит в отпуск, не говорит «я сейчас на обеде».

Архитектура (для тех, кому интересно)

Telegram Bot API
    |
Message Handler (Python)
    | фильтрация: упоминание / reply / ключевые слова
    |
Context Builder
    | последние N сообщений + тема ветки
    |
Knowledge Base
    +-- Код проекта (индексируется)
    +-- БД клиентов (SQL-запросы)
    +-- GitHub Issues
    +-- Внутренние документы
    |
LLM (Claude) + System Prompt
    |
Response -> Telegram / GitHub API

Никакого файн-тюнинга, никаких самописных моделей. Обычный API-вызов к Claude с хорошо подобранным system prompt и правильным контекстом. 90% магии — не в модели, а в том, какой контекст ей передать.

Кейс 1: Менеджер спрашивает — ИИ отвечает по коду

Типичная ситуация: менеджеру звонит клиент и говорит «у меня не работает X». Раньше менеджер шёл к CEO или разработчику и ждал ответа. Иногда часами.

Теперь менеджер пишет в чат: «Ребята, клиент спрашивает — можно ли создать шаблон с ссылкой?»

ИИ-ассистент:

  • Находит в коде контроллер шаблонов

  • Проверяет валидацию (какие символы разрешены, какие — нет)

  • Воспроизводит баг на тестовом окружении

  • Даёт конкретный ответ: «Шаблон сохраняется без ошибки. Проблема, скорее всего, в спецсимволах. Попросите клиента…»

И всё это — за 30 секунд. Не «я передам разработчикам», а конкретный ответ с привязкой к коду.

Менеджер: Ребята, клиент спрашивает — можно ли создать шаблон с ссылкой? У неё не сохраняется.

ИИ: Проверил код. TemplateController@store принимает текст шаблона через strip_tags() — HTML-ссылки вырезаются. Но plain-text URL (без <a href>) сохраняется нормально. Попросите клиента вставить ссылку как текст, без форматирования.

Где это экономит время

До ИИ: менеджер -> вопрос в чат -> CEO замечает через 2 часа -> ищет разработчика -> тот смотрит код -> ответ через полдня.

С ИИ: менеджер -> вопрос -> ответ через 30 секунд. Даже если ответ неточный, он сужает область проблемы.

Грубая оценка: ~15 таких вопросов в неделю x 2 часа = 30 человеко-часов в неделю, которые CEO и разработчики больше не тратят на support-задачи.

Кейс 2: CEO говорит «выпиши задачу» — ИИ создаёт GitHub issue

Этот кейс нас самих удивил. Вот реальная ситуация:

Менеджер Юля спрашивает в чате: «А мы можем сделать анализ конкуренции с помощью ИИ по фото?»

CEO объясняет: «Да, цель — понять, что это одна и та же квартира. Выпишу задачу.»

Юля уточняет детально: нужно добавить анализ по фотографиям, вычислять хэш каждой фотографии, определять и сравнивать, насколько они друг на друга похожи.

CEO пишет в чат: «Ром, выпиши задачу Диме. Нужно модернизировать анализ…»

Через минуту ИИ отвечает:

✅ Задача #9194 — Модернизация анализа конкуренции: сравнение фото + точное определение одинаковых квартир

Суть проблемы: хеширование фотографий в системе уже есть, но оно никак не связано с анализом конкуренции — две системы работают параллельно и не знают друг о друге.

Что войдёт в доработку:

  • Интеграция фото-сравнения через хеши (Hamming distance)

  • Подбор порогов: сколько фото из N должны совпасть, с учётом ресайза и водяных знаков

  • Комбинированный скоринг: метаданные + фото в единый score

  • Валидация на 10 000+ пар, подсчёт TP / FP / FN

  • ИИ (Vision) проверяет 100-500 пар и даёт рекомендации по порогам

Что здесь произошло

ИИ не просто скопировал текст сообщения в GitHub issue. Он:

  1. Понял контекст — прочитал всю ветку обсуждения (Юля -> CEO -> Юля -> CEO)

  2. Нашёл существующий код — обнаружил, что хеширование уже реализовано, но изолировано

  3. Сформулировал техническое задание — с конкретными алгоритмами (Hamming distance), метриками (TP/FP/FN), подходами к валидации

  4. Назначил исполнителя — понял, что «Диме» = конкретный разработчик

  5. Поставил labels — правильные теги задачи

Разработчик Дима получил задачу, которая обычно требует 30-40 минут формулировки от техлида. ИИ сделал это за минуту.

Кейс 3: ИИ ведёт changelog после деплоя

После каждого деплоя ИИ пишет в чат, что было сделано за сессию. Не абстрактное «обновлён модуль X», а конкретное:

ИИ после деплоя: Сделано за сессию:

  • Умная логика непрочитанных (sticky assignee + resolved=0)

  • Свёртываемый/перетаскиваемый сайдбар; убраны «Мои Входящие», «Капитан», баннер обновлений

  • Регулируемая ширина списка диалогов

  • Блокировка email на уровне mailbox (от blocked контактов письма больше не создают диалогов)

Это мелочь, но она экономит 15 минут после каждого релиза и оставляет документированный trace в чате.

Что ИИ делает хорошо

1. Рутинные вопросы по продукту. «Какой тариф у клиента Иванова?», «Когда последний раз заходил пользователь?», «Сколько объектов в базе по Москве?» — 95% таких вопросов ИИ отвечает корректно и мгновенно.

2. Формулировка задач. ИИ отлично преобразует разговорный «Юля, скажи Диме пусть починит вон ту фигню» в структурированную задачу с описанием, шагами и labels.

3. Первичная диагностика багов. Не всегда точная, но всегда быстрая. Сужает область поиска, даёт гипотезы, показывает релевантный код.

4. Ответы клиентам. Менеджер может попросить «сформулируй ответ клиенту на вот это» — и получить готовый текст, который остаётся немного отредактировать.

5. Работа вне рабочего времени. CEO пишет в 11 вечера «надо проверить, почему у клиента не работает автопубликация» — ИИ проверяет прямо сейчас.

Где ИИ пока бесполезен (честно)

1. Сложные межсистемные баги. Когда проблема на стыке трёх сервисов — ИИ может найти код каждого, но не всегда понимает, как они взаимодействуют в runtime. Выдаёт правдоподобные, но неверные гипотезы.

2. Бизнес-решения. «Стоит ли нам поднять цены на тариф?» — ИИ может собрать данные, но решение всё равно принимает CEO. И это правильно.

3. Эмоциональные ситуации. Когда клиент кричит, а менеджеру нужна поддержка — бот не заменит живого руководителя. Технически он может сформулировать ответ, но менеджеру нужна не формулировка, а уверенность.

4. Долгий контекст. Если обсуждение длится 3 дня с перерывами — ИИ может потерять нить. Контекстное окно большое, но не бесконечное, и в рабочем чате за 3 дня пролетает много сообщений.

5. Hallucinations. Да, и Claude, и GPT иногда уверенно врут. У нас был случай, когда ИИ сказал менеджеру, что функция «импорт из Excel» уже реализована — а её у нас просто нет. Менеджер пообещал клиенту. Пришлось извиняться.

Мы добавили в system prompt жёсткое правило: если не уверен — говори «не уверен, уточни у разработчиков». Помогло, но не на 100%.

Цифры за 3 месяца работы

Метрика

Значение

Сообщений от ИИ в чате

~2500

Задач создано на GitHub

~120

Вопросов менеджеров закрыто без CEO

~60%

Среднее время ответа

15-40 секунд

Критичных ошибок (hallucination -> инцидент)

3

Дело не в экономии денег — дело в скорости. Менеджер получает ответ за 30 секунд, а не за 3 часа. Клиент не ждёт — а значит, не уходит.

Мета-уровень: эта статья тоже через ИИ

И вот самое забавное. Эта статья, которую вы читаете — тоже результат работы ИИ-ассистента.

CEO написал в чат: «Ром, создай задачу директору — написать статью для Хабр про то, как мы работаем с ИИ». ИИ-ассистент:

  • Создал задачу в системе

  • Передал контекст маркетинговому агенту (тоже ИИ)

  • Тот проанализировал переписку, понял суть кейсов

  • Написал черновик

  • CEO проверил и одобрил

Три уровня вложенности:

  1. ИИ-ассистент работает в чате

  2. ИИ-агент пишет статью о том, как ИИ-ассистент работает в чате

  3. Вы читаете результат

Можно ли было написать эту статью вручную? Конечно. Но зачем, если ИИ уже знает все кейсы, имеет доступ к переписке и может сформулировать технический текст в нужном стиле?

Что мы поняли за несколько месяцев

1. 80% ценности — в контексте, не в модели. Можно взять любую top-3 модель — результат будет примерно одинаковый. Но если у модели нет доступа к коду, базе клиентов и истории чата — она бесполезна.

2. Доверие растёт нелинейно. Первый месяц менеджеры обращались к ИИ как к поисковику — задавали формальные вопросы. Через три месяца — зовут по имени, просят помочь сформулировать ответ клиенту, жалуются на баги. Он стал «своим».

3. Ошибки дороже, чем кажется. Одна hallucination, дошедшая до клиента — это потеря доверия не только к ИИ, но и к компании. Нужны safeguards.

4. ИИ не заменяет, а меняет роли. CEO перестал быть «ходячей документацией» и вернулся к стратегическим задачам. Менеджеры перестали ждать ответов и стали быстрее обрабатывать клиентов. Разработчики получают более качественные задачи.

5. CRM под управлением человека — это уже прошлое. Мы начинали с того, что ИИ помогает людям работать с CRM. Сейчас всё чаще замечаем обратное: ИИ управляет процессами, а люди наблюдают, корректируют и обучают. Триггерные рассылки, автоматический анализ звонков, генерация задач — всё это происходит без нажатия кнопки. Человек вмешивается когда ИИ ошибается. И с каждым месяцем — вмешивается реже.

Что дальше

Мы добавляем ИИ в новые процессы: анализ звонков менеджеров (STT -> LLM -> отчёт), автоматическая генерация описаний для клиентов, триггерные email-рассылки с персонализацией на основе поведения пользователя.

Каждая из этих задач — отдельная статья. Если интересно — напишите в комментариях, о чём рассказать подробнее.


Мы не называли конкретных продуктов и не давали ссылок намеренно — это статья про подход, а не про рекламу. Если хотите обсудить техническую реализацию — welcome в комментарии.

Автор: SmartAgent

Источник