Как нейросеть может быть лучшим ассистентом?
Привет, меня зовут Лера. Работаю Head of Community / Marketing в школе Web3-разработки, но времена немного меняются. И тема этой статьи говорит за себя. По долгу своей службы вокруг меня постоянно проводят стримы, связанные с AI: автоматизация, вайбкод, личные ассистенты, оптимизация рабочих процессов. Ресёрч, подключение MCP и конечно же RAG.
RLM-Toolkit: Полная замена LangChain? FAQ часть 2
Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.
Собираем LLM-агента на Python
Команда Python for Devs подготовила перевод статьи о том, как с помощью middleware в LangChain 1.0 собирать LLM-агентов, готовых к реальному продакшену. В материале разбираются практические паттерны: управление контекстом, защита PII, human-in-the-loop, планирование задач и интеллектуальный выбор инструментов — всё то, что отличает экспериментального агента от надёжного рабочего решения.Введение Хотели ли вы когда-нибудь расширить своего LLM-агента дополнительными возможностями, например:Суммировать сообщения, чтобы укладываться в контекстное окно;
Что такое Deep Research агенты и зачем они нужны?
В свете недавнего выхода обновления Deep Research для Gemini стоит разобраться, как этот и подобные ему агенты работают.
Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)
Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).
Разрабатываю MCP интеграции к платформе AI агентов — ключевые моменты
AI технологии меняются так быстро, что каждые несколько месяцев задаешься вопросом: чем сейчас лучше всего заняться в этой индустрии? И ответ каждый раз новый. Я недавно понял, что сейчас самое время заняться MCP — протоколом контекста моделей, и открыть возможности внешних интеграций для моих AI агентов. По мере того, как растет количество публично доступных MCP серверов, разница между агентом с MCP-адаптером и без такового приближается к разнице между компьютером с интернетом и без.
Вы написали AI-агента, а что дальше? Разбираем Google Vertex AI Agent Engine — спасательный круг или золотая клетка?
Давайте честно: написать умного AI-агента сегодня — это самая простая часть работы. Собрали LangChain или LangGraph, прикрутили API OpenAI или Gemini, заставили это работать у себя в терминале — красота! Вы чувствуете себя Тони Старком.Но настоящий кошмар начинается, когда возникает вопрос: "А как выкатить это в продакшен?"И тут вы понимаете, что ваш скрипт на Python — это не бэкенд. Вам нужно думать про:Где хранить историю диалогов (Redis? Postgres?).Как масштабировать это, если придет 1000 юзеров?Как сделать так, чтобы агент, выполняя код, не "уронил" сервер?Бесконечные IAM-права, ключи, VPC и безопасность.

