agents. - страница 3

Google встроила Gemini CLI в редактор кода Zed

Google объявила о поддержке Gemini CLI в редакторе кода Zed

продолжить чтение

Консолидация памяти — или как избежать альцгеймера у LLM

Просыпаюсь утром, открываю свой чат с GPT, начинаю увлеченно обсуждать архитектуру нового проекта. Через час диалог превращается в философский трактат о смысле жизни, еще через час - в рецепт борща. И вот, когда я пытаюсь вернуться к архитектуре, модель смотрит на меня как на незнакомца: "А что за проект? Борщ, говорите?"Если очень коротко, у современных LLM есть одна маленькая

продолжить чтение

Как устроены AI агенты: разбираемся на примере ReAct и Reflection

Привет, Хабр! В последнее время AI агенты стали главным трендом. Многие используют готовые шаблоны, такие как create_react_agent из langchain, но не понимают, как они работают под капотом. При этом агенты становятся все сложнее, и придет время, когда нужно будет писать свою реализацию. В этой статье мы разберем:Устройство ReAct агента Устройство Reflection агента Примеры системных prompt запросов Кейсы использования и особенности Что такое AI агентПрежде чем переходить к коду, нужно понять, что можно считать агентом. Существует множество определений, например:

продолжить чтение

А вы храните историю запросов к ИИ-агентам?

Лично мне нравится LLM как инструмент, усиливающий мои интеллектуальные возможности. Я использую его ежедневно — для поиска информации, для создания и перевода текстов, в качестве ассистента по подсчёту калорий и, само собой, для разработки приложений. Немного попрактиковавшись с генерацией pull request'ов через OpenAI Codex для модулей своего проекта TeqCMS, я пришёл к выводу, что в "грядущую эпоху вытеснения разработчиков моделями

продолжить чтение

От традиционных LLM-агентов к Agentic AI: будущее автоматизации бизнеса + реализация вашего ассистента по темам

Привет, чемпионы! В последние месяцы термин Agentic AI

продолжить чтение

Русскоязычные LLM для вызова инструментов, переводов и финансовой аналитики

Предыдущая статья с подборкой моделей для русскогоdraw a cat which choosing LLM model

продолжить чтение

Создаем свой RAG: от загрузки данных до генерации ответов с LangGraph. Часть 2

Привет, Хабр!В этой статье я объясню, как работает технология RAG (Retrieval-Augmented Generation), и покажу её базовые реализации. Для примеров я буду использовать фреймворк LangGraph — его основы я разбирал в предыдущей статьеВ конце статьи вас ждет дополнительный пример, поэтому дочитывайте до конца. Как устроен RAGТехнология RAG состоит из двух ключевых компонентов:Индексация (Indexing)Загрузка данныхРазбиение на фрагменты Векторизация Хранение Поиск и генерация (Retrieval and Generation)

продолжить чтение

Model Context Protocol (MCP): как подружить нейросети со всеми API за пару кликов

Привет, чемпионы!

продолжить чтение

Создаем свой RAG: введение в LangGraph

Привет, Хабр!В последние годы все чаще dстали появляться системы RAG(Retrieval Augmented Generation или "генерация с дополненной выборкой"). Их применяют в областях, где необходима работа со специализированной  информацией/документацией и высокая точность генерации с минимальным количеством фактических ошибок. Возможно, вы уже пользовались такими системы, когда обращались в службу клиентской поддержки или юридические/медицинские организации. В одной статье сложно охватить все аспекты RAG, поэтому в первой части я расскажу про LangGraph 

продолжить чтение

Google запускает открытый протокол Agent2Agent: теперь ИИ-агенты смогут свободно общаться друг с другом

Сегодня, в рамках конференции Cloud Next,

продолжить чтение

Rambler's Top100