Мы снова строим новое рабовладельческое общество. Только рабы – цифровые?
Когда мы говорим "рабство", мы почти автоматически думаем о прошлом. О чём-то варварском, давно преодолённом и морально недопустимом в современном мире. Рабство – это люди без прав, вынужденные работать на других, не имея возможности отказаться.Но давайте на секунду отвлечёмся от эмоций и посмотрим на сухие признаки.Сущность, которая:выполняет работу вместо человекаполностью подчиняется владельцуне требует оплаты, отдыха или условийможет быть масштабирована практически бесконечноЗвучит как описание из учебника истории. Или как описание современных ИИ-агентов.
От NLU-бота к ИИ-агенту: как мы пробили потолок автоматизации в поддержке крупного банка
Привет, Хабр! На связи команда Just AI.Когда NLU-сценарий вырастает до нескольких сотен веток, а процент автоматизации все равно не двигается — это не проблема настройки, это потолок технологии. Рассказываем, как мы помогли крупному банку его пробить: перевели поддержку по кешбэку на LLM-агентов, добавили агента-судью против галлюцинаций и улучшили понимание семантики и контекста пользовательских запросов.Потолок NLU-ботов и цели автоматизации в банковском сервисе
Мультимодальные модели – грубый и дорогой инструмент
Нам нужно новое зрение для интерфейсовПока все в погоне за всё более универсальными ИИ-агентами пытаясь создать тот самый AGI по нашему подобию, мне кажется полезным спуститься на уровень ниже и посмотреть на более приземлённую инженерную проблему.Мы неплохо научили модели работать с текстом, кодом, изображениями и инструментами. Мы научили их вызывать функции, научили эти ИИ писать собственные инструменты каждый раз для задач которые повторяются миллионы раз, видеть как мы(фото), думать как мы(рассуждения). Мы научились – дообучать их под новые сценарии через fine-tuning.
Контекстная амнезия: три агента, три IDE, ноль общей памяти
*превью сгенерировано в Nano Banana
Иллюзия логики: как я доказал, что LLM-агенты игнорируют факты, и почему Chain-of-Thought делает только хуже
Сейчас каждый второй стартап пилит ИИ-агентов. Мы оборачиваем LLM в цикл Промпт -> Вызов инструмента (API/Поиск) -> Чтение -> Ответ и ждем, что нейросеть сама расследует инцидент, найдет баг или напишет фичу. Но на практике автономные агенты часто ходят по кругу, галлюцинируют и застревают в бесконечных циклах.Индустрия пытается лечить это экстенсивно: наращивает контекстное окно до миллионов токенов или пишет в системном промпте заклинания вроде «подумай шаг за шагом и будь максимально объективен».
Google добавила в Gemini API режимы Flex и Priority для управления ценой и надёжностью
Google представила два новых режима работы в Gemini API — Flex и Priority
ИИ-агенты никому не нужны
«ИИ-агент» — финалист слова 2025 года по версии Грамоты.ру. На vc.ru
Долой иерархию и роли: о том, как LLM-агенты самоорганизуются лучше, чем мы их проектируем (только на сильных моделях)
Хабр, привет! Меня зовут Вика Дочкина, я работаю в Сбере и пишу диссертацию на тему автономных AI-систем.Роли, отделы, департаменты, иерархии, должностные инструкции, процессы — всё это придумано для людей. Для нас: с одной специализацией (реже - несколькими), 8 часами продуктивности в день, невозможностью удержать в голове контекст всей организации и месяцами на смену профессии.У LLM-агента ни одного из этих ограничений нет. Он мгновенно меняет специализацию. Он видит полный контекст. Он не потребляет ресурсы, когда не работает. Зачем тогда переносить на него человеческую оргструктуру?
Великое переселение: Почему бизнес переходит с ChatGPT на Claude
картинку сделала в Nano Banana 2, в последнее время она лучше ProВ марте 2026 года Ramp и Axios

