агенты.

Правильная агентская архитектура в 2026 г. Часть 2. Durable state: approvals, session context и background jobs

Продолжение статьи https://habr.com/ru/articles/1028290/ Твой ии-агент мог бы сыграть в сериале "Кибердеревня"В прошлой серии

продолжить чтение

Второй мозг и LLM‑Wiki: Теория и практический гайд по созданию и поддержке личной базы знаний

В этой статье поговорим про концепцию «второго мозга»

продолжить чтение

AIRI представил ELMUR — архитектуру памяти для роботов на базе ИИ

продолжить чтение

Senior на бумаге, Junior в рантайме: как я тестировал локальные LLM на 120B параметров в Greenfield-проекте

Недавно я задался вопросом: можно ли организовать полноценный agent dev loop (то есть, цикл разработки агентов), используя только локальные модели? Идея заманчивая — гонять агента по задачам бесконечно, не оглядываясь на счета от OpenAI или Anthropic и не переживая за утечку кода.Чтобы проверить это, я выделил кластер и столкнул лбами три тяжеловеса из мира open source. Спойлер: архитектурно они все — Senior‑разработчики, но когда дело доходит до docker-compose up, начинаются проблемы.

продолжить чтение

Выжать больше из локальных LLM. Ollama медленнее llama.cpp в 3 раза. UD_Q4_K_XL лучше чем Q4_K_M, а вес тот же и т.д

продолжить чтение

Токенмаксинг: IT-компании и стартапы теперь хвастаются счетами за AI, а не результатами

Среди технологических стартапов и IT-компаний появился новый тренд — хвастаться тем, сколько организация тратит на AI-агентов. Основатели некоторых стартапов уже отмечают, что счета за использование нейросетей уже приближаются к сумме зарплатного фонда или даже превышают его. Большие расходы объясняются высокой эффективностью внедрения AI.

продолжить чтение

Что если собирать агентов как dbt-проект?

Я пришел в разработку агентов из дата инженерии, и в очередной раз занимаясь сборкой типовой структуры на LangGraph я заскучал по декларативному подходу, хорошо многим знакомому по dbt - там ты описываешь что ты хочешь сделать с данными, а не как. И тогда у меня появилась мысль - а почему бы не собрать свой фреймворк для агентов, который даст тот же подход.

продолжить чтение

Ваш любимый ИИ не умеет считать. Что ещё скрывает текстовая модель?

Технократический разбор для инженеров и бизнес-аналитиков. Без преувеличений и продающих лозунгов.Данная статья представляет собой результат кабинетного исследования об основных особенностях работы ИИ (LLM, модель). Здесь в систематизированном виде относительно простым языком описано, как реализуется вся та “магия” про ИИ, с которой мы сталкиваемся сами или слышим в восторженно-продающих материалах.Сразу уточню, что под ИИ тут понимается именно публичная Большая языковая (текстовая) модель (LLM), вроде ЧатаГПТ, ГигаЧата, Дипсика и др.В этой статье мы:

продолжить чтение

Anthropic выпустили Claude Opus 4.7

Сегодня Anthropic объявила о выходе Claude Opus 4.7. Модель стала заметным шагом вперёд в программировании: в тестах на реальных задачах Cursor зафиксировал рост с 58% до 70%, CodeRabbit отметил улучшение recall на 10% при стабильной точности, а Rakuten — трёхкратный рост решённых production-задач по сравнению с Opus 4.6.

продолжить чтение

Как я собрал автономную AI-новостную систему за полтора месяца

Полтора месяца назад у меня было семь воркфлоу в n8n для новостного пайплайна. Каждый делал что-то своё. Выглядит это, конечно, красиво, наблюдаешь, как крутятся воркеры. Но если посмотреть внутрь, то постоянно происходят какие то сбои. Где-то новость застряла, и сразу разобраться порой не получается. И вроде исправил одно, но следом влезают другие проблемы.Итог: семь воркфлоу — семь точек отказа. И каждый ломается по-своему.

продолжить чтение

123456...10...17