llm.
Собираем LLM-агента на Python
Команда Python for Devs подготовила перевод статьи о том, как с помощью middleware в LangChain 1.0 собирать LLM-агентов, готовых к реальному продакшену. В материале разбираются практические паттерны: управление контекстом, защита PII, human-in-the-loop, планирование задач и интеллектуальный выбор инструментов — всё то, что отличает экспериментального агента от надёжного рабочего решения.Введение Хотели ли вы когда-нибудь расширить своего LLM-агента дополнительными возможностями, например:Суммировать сообщения, чтобы укладываться в контекстное окно;
Рекурсивные языковые модели (RLM) – парадигма 2026 года
Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами
Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги
Команда AI for Devs подготовила перевод большой обзорной статьи о 2025 годе в мире LLM. Автор подводит итоги года: от vibe coding и coding-агентов до MCP, prompt injection, локальных моделей, браузеров с ИИ и «slop» как культурного феномена.Это третья часть моей ежегодной серии обзоров всего, что произошло в сфере LLM за последние 12 месяцев. Предыдущие выпуски см. в материалах Stuff we figured out about AI in 2023 и Things we learned about LLMs in 2024.Этот год оказался насыщенным и принес с собой множество самых разных тенденций.
Я реализовал паттерн памяти из OpenAI Cookbook в Python библиотеку
Я создал agent-memory-state — open-source Python библиотеку для управления персистентной памятью AI агентов. Реализует паттерн state-based memory из OpenAI Cookbook: профиль пользователя, разделение session/global памяти, LLM-консолидация и защитные механизмы.Проблема: Агенты без памяти — безликиеКаждый раз, начиная новый разговор с AI-ассистентом, он забывает всё. Ваши диетические предпочтения, привычки в путешествиях, рабочий контекст — стёрты. Приходится объяснять одно и то же снова и снова.
Технологическая сингулярность. От 2 месяцев до 2 дней — Claude и n8n сократили разработку в промышленной IoT
Писать надо только тогда, когда не можешь не писать (С) Л.Н. ТолстойНа самом деле я работал над статьей о Claude Code, но тут пальцы сами открыли ноут на начали набивать буквы. Извините!ПриквелНачну издалека, с темы, максимально далекой от предмета статьи. У меня есть друг, который постоянно норовит втянуть меня в свои хобби. За десятилетие я попробовал стать фанатом ножей, огнестрельного и пневматического оружия, охоты, выживания в БП, полетах на самолетах. Ни одно хобби не зашло.
Claude Code теперь можно запускать с локальными open-source моделями
Начиная с версии Ollama 0.14, платформа получила совместимость с Anthropic Messages API. Это означает, что Claude Code — агентный инструмент для программирования, который работает прямо в терминале — теперь может использовать любую модель из Ollama, а не только облачные модели Anthropic.
GLM-Image выложили в открытый доступ. Хороший китайский, транслит вместо кириллицы
Китайские товарищи из Zhipu AI выложили модель для генерации картинок GLM-Image (text-to-image и image-to-image) в открытый доступ.В свой главный сайт z.ai, почему-то сразу не втащили, ещё и старую модель отключили, пока там генерируются только вызовы функции. Но там зато можно бесплатно общаться с их GLM моделью, по качеству довольно неплохая.Потыкал модель на fal.ai
Log Analyzer Pro 2.0: Добавляем AI-поиск на естественном языке
В предыдущей статье я рассказывал, как сделал производительный просмотрщик логов для VS Code с Rust и mmap. Расширение открывает файлы по 10 ГБ без лагов.Но оставалась проблема: чтобы найти нужное, приходилось писать regex. А regex — это боль. Особенно когда искать нужно "все ошибки подключения к БД" или "таймауты в сервисе auth".Решение: пусть AI пишет regex за меня.Что получилосьНажимаешь "AI", пишешь на человеческом языке — получаешь фильтр:ЗапросРезультат"все ошибки"ERROR

