langchain.

Скормил нейросети 40 статей ПИК с Хабра: RAG-бот на GigaChat для BIM без опыта в разработке

Предыстория: архитектура, BIM и попытки автоматизацииМеня зовут Владислав Пономарев, я архитектор, проектирую дома. Ещё в магистратуре, 10 лет назад я занимался BIM-внедрением в проектной организации в Сочи. Это были Revit, Civil 3D и другие инструменты. Делал это в рамках своей темы магистерской работы. Потом переключился на архитектуру в частном домостроительстве, где больше изучал практические вопросы проектирования и философию архитектуры, ее эстетические качества. Но любовь к более сложному BIM осталась. С энтузиазмом продвигал тему BIM, когда до массового внедрения в РФ было еще далеко.

продолжить чтение

У нас есть джун, и мы его учим

Амбициозный, с собственными пет-проектами, участвующий в формах и профильных ивентах/конференциях — софты уже есть, на нашей стороне — харды.Начали обучение мы даже без погружения в то, как работает LLM, просто научили его работать в графическом интерфейсе нашей платформы, создавать простейшие цепочки и написания промптов.Плюс, постепенно изучаем то, из чего состоит само приложение (что можно подключить память, что там можно выбирать различные инструменты для работы), отдельные моды в LangChain для разных задач, для вопросно-ответных систем, для систем, где агент выбирает сам инструменты, где система работает с реактом.

продолжить чтение

Как нейросеть может быть лучшим ассистентом?

Привет, меня зовут Лера. Работаю Head of Community / Marketing в школе Web3-разработки, но времена немного меняются. И тема этой статьи говорит за себя. По долгу своей службы вокруг меня постоянно проводят стримы, связанные с AI: автоматизация, вайбкод, личные ассистенты, оптимизация рабочих процессов. Ресёрч, подключение MCP и конечно же RAG.

продолжить чтение

RLM-Toolkit: Полная замена LangChain? FAQ часть 2

Продолжение статьи о RLM. Первая часть: Почему ваш LLM-агент забывает цельО чём эта статья?В первой части я разобрал 10 проблем LLM-приложений и как RLM их решает. Но остался очевидный вопрос:"Чем это отличается от LangChain? Зачем ещё один фреймворк?"Короткий ответ: RLM-Toolkit — это пока не полная замена LangChain. Не весь запланированный функционал реализован, но в своей нише (огромный контекст, H-MEM память, безопасность, InfiniRetri, самоулучшающиеся агенты) — уже конкурент и опережает в вопросах развития под современные задачи.

продолжить чтение

Собираем LLM-агента на Python

Команда Python for Devs подготовила перевод статьи о том, как с помощью middleware в LangChain 1.0 собирать LLM-агентов, готовых к реальному продакшену. В материале разбираются практические паттерны: управление контекстом, защита PII, human-in-the-loop, планирование задач и интеллектуальный выбор инструментов — всё то, что отличает экспериментального агента от надёжного рабочего решения.Введение Хотели ли вы когда-нибудь расширить своего LLM-агента дополнительными возможностями, например:Суммировать сообщения, чтобы укладываться в контекстное окно;

продолжить чтение

RLM-Toolkit: Полное руководство по обработке 10M+ токенов

От теории до production — архитектура, алгоритмы, безопасностьПривет, Хабр!Это исчерпывающее руководство по RLM-Toolkit — open-source библиотеке для работы с контекстами произвольной длины.Что рассмотрю:Формальная теория RLM (State Machine, рекурсия)InfiniRetri: математика attention-based retrievalH-MEM: когнитивная архитектура памятиRAG vs KAG vs GraphRAG vs InfiniRetriSecurity: CIRCLE compliance, sandbox escape preventionРеальные примеры с логами выполненияTroubleshooting и best practicesУровень: от middle до PhD-level исследований.🚀

продолжить чтение

Что такое Deep Research агенты и зачем они нужны?

В свете недавнего выхода обновления Deep Research для Gemini стоит разобраться, как этот и подобные ему агенты работают.

продолжить чтение

Финансовый AI-агент на Python: MCP и CodeAct

Это продолжение статьи

продолжить чтение

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Привет, Хабр! 👋Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат.В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ..., и я решил создать универсальный слой абстракции.Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке).

продолжить чтение

Разрабатываю MCP интеграции к платформе AI агентов — ключевые моменты

AI технологии меняются так быстро, что каждые несколько месяцев задаешься вопросом: чем сейчас лучше всего заняться в этой индустрии? И ответ каждый раз новый. Я недавно понял, что сейчас самое время заняться MCP — протоколом контекста моделей, и открыть возможности внешних интеграций для моих AI агентов. По мере того, как растет количество публично доступных MCP серверов, разница между агентом с MCP-адаптером и без такового приближается к разнице между компьютером с интернетом и без.

продолжить чтение

Rambler's Top100