llm. - страница 7

llm.

Собираем LLM-агента на Python

Команда Python for Devs подготовила перевод статьи о том, как с помощью middleware в LangChain 1.0 собирать LLM-агентов, готовых к реальному продакшену. В материале разбираются практические паттерны: управление контекстом, защита PII, human-in-the-loop, планирование задач и интеллектуальный выбор инструментов — всё то, что отличает экспериментального агента от надёжного рабочего решения.Введение Хотели ли вы когда-нибудь расширить своего LLM-агента дополнительными возможностями, например:Суммировать сообщения, чтобы укладываться в контекстное окно;

продолжить чтение

Рекурсивные языковые модели (RLM) – парадигма 2026 года

Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами

продолжить чтение

ИИ лажает там где должен был сиять

продолжить чтение

Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги

Команда AI for Devs подготовила перевод большой обзорной статьи о 2025 годе в мире LLM. Автор подводит итоги года: от vibe coding и coding-агентов до MCP, prompt injection, локальных моделей, браузеров с ИИ и «slop» как культурного феномена.Это третья часть моей ежегодной серии обзоров всего, что произошло в сфере LLM за последние 12 месяцев. Предыдущие выпуски см. в материалах Stuff we figured out about AI in 2023 и Things we learned about LLMs in 2024.Этот год оказался насыщенным и принес с собой множество самых разных тенденций.

продолжить чтение

Я реализовал паттерн памяти из OpenAI Cookbook в Python библиотеку

Я создал agent-memory-state — open-source Python библиотеку для управления персистентной памятью AI агентов. Реализует паттерн state-based memory из OpenAI Cookbook: профиль пользователя, разделение session/global памяти, LLM-консолидация и защитные механизмы.Проблема: Агенты без памяти — безликиеКаждый раз, начиная новый разговор с AI-ассистентом, он забывает всё. Ваши диетические предпочтения, привычки в путешествиях, рабочий контекст — стёрты. Приходится объяснять одно и то же снова и снова.

продолжить чтение

RLM-Toolkit: Полное руководство по обработке 10M+ токенов

От теории до production — архитектура, алгоритмы, безопасностьПривет, Хабр!Это исчерпывающее руководство по RLM-Toolkit — open-source библиотеке для работы с контекстами произвольной длины.Что рассмотрю:Формальная теория RLM (State Machine, рекурсия)InfiniRetri: математика attention-based retrievalH-MEM: когнитивная архитектура памятиRAG vs KAG vs GraphRAG vs InfiniRetriSecurity: CIRCLE compliance, sandbox escape preventionРеальные примеры с логами выполненияTroubleshooting и best practicesУровень: от middle до PhD-level исследований.🚀

продолжить чтение

Технологическая сингулярность. От 2 месяцев до 2 дней — Claude и n8n сократили разработку в промышленной IoT

Писать надо только тогда, когда не можешь не писать (С) Л.Н. ТолстойНа самом деле я работал над статьей о Claude Code, но тут пальцы сами открыли ноут на начали набивать буквы. Извините!ПриквелНачну издалека, с темы,  максимально далекой от предмета статьи. У меня есть друг, который постоянно норовит втянуть меня в свои хобби. За десятилетие я попробовал стать фанатом ножей, огнестрельного и пневматического оружия, охоты, выживания в БП, полетах на самолетах. Ни одно хобби не зашло.

продолжить чтение

Claude Code теперь можно запускать с локальными open-source моделями

Начиная с версии Ollama 0.14, платформа получила совместимость с Anthropic Messages API. Это означает, что Claude Code — агентный инструмент для программирования, который работает прямо в терминале — теперь может использовать любую модель из Ollama, а не только облачные модели Anthropic.

продолжить чтение

GLM-Image выложили в открытый доступ. Хороший китайский, транслит вместо кириллицы

Китайские товарищи из Zhipu AI выложили модель для генерации картинок GLM-Image (text-to-image и image-to-image) в открытый доступ.В свой главный сайт z.ai, почему-то сразу не втащили, ещё и старую модель отключили, пока там генерируются только вызовы функции. Но там зато можно бесплатно общаться с их GLM моделью, по качеству довольно неплохая.Потыкал модель на fal.ai

продолжить чтение

Log Analyzer Pro 2.0: Добавляем AI-поиск на естественном языке

В предыдущей статье я рассказывал, как сделал производительный просмотрщик логов для VS Code с Rust и mmap. Расширение открывает файлы по 10 ГБ без лагов.Но оставалась проблема: чтобы найти нужное, приходилось писать regex. А regex — это боль. Особенно когда искать нужно "все ошибки подключения к БД" или "таймауты в сервисе auth".Решение: пусть AI пишет regex за меня.Что получилосьНажимаешь "AI", пишешь на человеческом языке — получаешь фильтр:ЗапросРезультат"все ошибки"ERROR

продолжить чтение

1...5678910...2030...161
Rambler's Top100