Разработчики смотрят не туда: AI меняет саму механику разработки
У индустрии есть любимая форма самоуспокоения. Каждый раз, когда речь заходит про AI в разработке, люди начинают обсуждать качество кода. Смотрят на демки, ловят модель на галлюцинации, смеются над кривыми PR, вспоминают, что она не понимает бизнес-контекст, и на этом месте выдыхают. Кажется, что профессия снова отбилась. Ну да, игрушка интересная, местами полезная, местами смешная, но до реальной инженерной работы ей еще бесконечно далеко.
Пора переезжать на локальные LLM. Или нет?
Нет большой разницы в инструментах, когда речь идет о создании простеньких чат-ботов. Но когда вы работаете над продуктом посерьезнее, например создаете сложного AI-агента или работаете с чувствительными данными, облачные LLM начинают выставлять счета. И не только финансовые.Что если переход на локальную инфраструктуру (вроде Ollama) это решение, которое не просто поможет сэкономить, но изменит саму динамику разработки?Налог на итерацию
Почему мы запретили нашему агенту работать 24-7
Сейчас индустрия бьется над тем, чтобы агентов работали быстрее, дольше и без пауз. Выкатывают таких, которые должны пахать 24/7. Итог часто один: через 90 дней в проде система сгнивает - контекст забивается мусором, RAG начинает галлюцинировать старыми документами, а модель выдает усредненную жвачку.Пытаются решить это костылями: очисткой базы по крону и хардкодом. Мы в архитектуре FSBIO ( ex. ENA) пошли другим путем. Мы поняли, что биология уже решила проблему «загрязнения контекста» миллионы лет назад.Это решение называется сон. И мы вшили его в ядро на уровне физики.
От OCR до ADE: как машины научились не просто читать, а понимать документы
Представьте что вы получили 500 кредитных заявок. В каждой — паспорт, банковская выписка, справка о доходах, налоговая форма. Всё в PDF. Имена файлов: upload1.pdf, upload2.pdf... Чтобы обработать их вручную — нужна неделя и несколько сотрудников. Чтобы обработать автоматически старым способом — нужно написать отдельный парсер под каждый тип документа, и молиться чтобы шрифт не поменялся. Эта статья о том как индустрия шла к решению этой задачи — и к чему пришла.
AI-продакт и результат: как рождаются продукты, которые приносят деньги
В цифровых продуктах «сделать фичу» давно не равно «создать ценность»: она появляется, когда решение меняет процесс и дает измеримый результат. В AI-продуктах это особенно важно: ценность определяет не интерфейс и не сама модель, а способность системы стабильно и безопасно закрывать задачу с предсказуемой экономикой.С AI-агентами это видно лучше всего: эффект возникает не при запуске функции, а когда агент встраивается в реальную работу, убирает ручные шаги, меняет роли и дает измеримые улучшения — в выручке, скорости, издержках или качестве.
Как научить AI-агента работать «как у нас принято»: RAG для передачи знаний
Новый сотрудник приходит в компанию. Первый месяц смотрит, как работают другие. Задаёт вопросы. Впитывает неписаные правила.«К Петрову лучше не ходить в пятницу после обеда». «Если клиент из Газпрома — сначала согласуй с Мариной». «Этот шаблон договора устарел, бери новый из папки на диске».Через месяц-два новичок работает «как принято». Без инструкций — просто потому что видел, как это делают другие.AI-агент так не умеет. Всё, что сотрудники «знают на автомате», для него не существует. Пока не будет явно описано и загружено в систему.Проблема tacit knowledge
Что делать, когда AI-агент «упал»: архитектура отказоустойчивости
Понедельник, 9 утра. Начало рабочей недели.API OpenAI лёг. Или лимиты закончились. Или интернет в офисе пропал.Что делает AI-агент? Ничего. А процесс, который он обслуживал, встаёт. Заявки копятся, договоры не согласовываются, клиенты ждут.И хуже всего — люди не знают, что агент не работает. Думают, что всё идёт по плану.Реальные сценарии сбоевЗа год работы с AI-агентами в проде я собрал коллекцию того, что ломается.Сбои провайдера LLM. OpenAI: 2-3 крупных сбоя в год плюс периодические замедления. Anthropic: реже, но бывает. GigaChat: стабильнее, но тоже не без проблем.Сетевые проблемы.
Кто виноват, если AI-агент ошибся: распределение ответственности
Агент согласовал договор. В договоре была ошибка в реквизитах. Компания перевела деньги не туда.Кто виноват?Разработчик? Сотрудник, который запустил процесс? Руководитель, утвердивший внедрение?Это не философский вопрос. Это юридический и организационный. И если на него нет ответа до запуска — первый же инцидент парализует всю систему.Почему это важноВ прошлой статье я показал, что инструкция для LLM-агента — это 10-15 страниц вместо полстраницы для человека. Но даже идеально описанный процесс не гарантирует отсутствие ошибок.AI-агенты ошибаются. Это факт.
Программисты вымрут в 2028. Или нет?
Вирусный пост на Substack обвалил фондовый рынок и похоронил профессию. Citadel Securities Кена Гриффина ответила цифрами. Разбираю обе стороны — и добавляю то, что вижу на своих проектах.Для тех, кому лень читать: нет, программисты не вымрут. Ни в 2028-м, ни в 2030-м. Но профессия меняется прямо сейчас, и делать вид, что ничего не происходит — тоже так себе стратегия. Дальше — данные, а не мнения.Пару недель назад я написал на Хабре статью «Не учись на программиста». Получил 200+ комментариев, из которых половина — «автор, а ты сам-то код писал?» и «очередной AI-евангелист продаёт подписки» (хотя я ничего не продаю!:))

