agentic ai.

Как ИИ‑агенты меняют управление IT‑проектами

Всем привет, меня зовут Сергей Прощаев. Я Tech Lead и руководитель направления Java | Kotlin разработки в FinTech, а еще преподаю на курсах по разработке и архитектуре в OTUS. Сегодня хочу поговорить о теме, которая заслуживает пристального внимания. Мы привыкли, что искусственный интеллект пишет за нас код или генерирует картинки. Но есть область, где его внедрение происходит тише, а последствия обещают быть гораздо более тектоническими. Речь об управлении.

продолжить чтение

AI-ready ITSM: платформа или коробка – и почему это главный вопрос 2026 года

Ещё три года назад ИИ в ITSM представлялся как просто чат-бот на входе, который пытается угадать категорию тикета. Сегодня уже другой разговор: ведущие платформы встраивают AI не как надстройку над тикет-системой, а как архитектурный слой, который участвует в маршрутизации, предсказывает инциденты до их возникновения, автономно закрывает типовые обращения и генерирует постмортемы. Рынок уже видит пользу — по данным Forrester

продолжить чтение

Как меняются метрики контроля при переходе от чат‑ботов к агентным системам

Переход от простых чат‑ботов к автономным агентным системам требует новых метрик контроля и понимания, насколько эффективно агенты взаимодействуют друг с другом и насколько точно они используют внешние инструменты.Почему старые подходы ломаютсяКогда у нас не один LLM‑чат, а целая группа агентов, которые сами вызывают функции и общаются между собой, старые методы оценки не работают. Нужно измерять две вещи: синергию (помогают ли агенты друг другу решить задачу или просто гоняют токены по кругу);

продолжить чтение

NVIDIA захватывает AI, Cursor на китайской модели, SambaNova бьет GPU: ML‑дайджест

Мартовские анонсы показывают, куда движется AI‑инфраструктура

продолжить чтение

Готовим ИИ-агента к продакшену

Готовим ИИ-агента к продакшену

продолжить чтение

Цена контекста в агентной разработке: почему bottleneck — не код, а внимание человека

Пока diff небольшой, в нас просыпается хранитель инженерной чистоты: мы спорим о нейминге, замечаем лишний пробел, обсуждаем, стоило ли выносить логику в helper, но когда правка разрастается до тысяч строк, строгость уступает другому подходу: CI зелёный, тесты прошли, код выглядит вроде неплохо - можно жать Approve.

продолжить чтение

Илон Маск представил совместный проект Tesla и xAI под названием Macrohard

Илон Маск объявил о новом совместном проекте Tesla и его AI-стартапа xAI. Система получила название Macrohard, также упоминаемое как Digital Optimus.

продолжить чтение

Почему Perplexity Computer — важный релиз в мире AI

Perplexity тихо выпустила Perplexity Computer

продолжить чтение

Рекурсивные языковые модели (RLM) – парадигма 2026 года

Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами

продолжить чтение

GPT-4o: технический разбор модели, которая взрывает людям мозги

В 2025 году я встретила минимум трёх адекватных взрослых людей с образованием, которые после общения с GPT-4o реально ехали крышей. Один — разработчик с 10-летним стажем, начал строить "революционный стартап" за ночь, не спал трое суток, речь скачками. Второй — биоинженер, после двухнедельного марафона с 4o открыл "секрет сознания". Третий — преподаватель, впал в манию величия: "Я нашла способ обучать ИИ эмоциям!". Все трое были нормальными людьми. Что происходит с этой моделью технически? Давайте разберёмся — особенно после того, как выяснилось, что даже инвестор OpenAI пострадал.Известные кейсы: от подростка до инвестора

продолжить чтение