ai agent. - страница 6

Развенчиваем мифы об AI-агентах: от фантазий к реальности

продолжить чтение

ИИ под контролем: Guardrails как щит от рисков в агентных системах

Вы когда-нибудь задавали вопрос AI-чатботу и получали в ответ что-то вроде: «Я не могу с этим помочь»

продолжить чтение

Решаем задачи международной математической олимпиады у себя на домашнем компьютере

Введение

продолжить чтение

Безопасность AI-агентов в Web3. Часть 3: Скажи мне что-нибудь, и я скажу, кто ты

AI-агенты все чаще используются для принятия важных решений и даже управления активами на десятки миллионов долларов, встает вопрос возможности определения LLM модели по ее ответам - fingerprinting. Это нужно для анализа безопасности использования агента, о котором не известно технических деталей «чёрного ящика» и учета особенностей конкретных моделей, о чем мы писали в прошлых статьях (часть 1, часть 2

продолжить чтение

Консолидация памяти — или как избежать альцгеймера у LLM

Просыпаюсь утром, открываю свой чат с GPT, начинаю увлеченно обсуждать архитектуру нового проекта. Через час диалог превращается в философский трактат о смысле жизни, еще через час - в рецепт борща. И вот, когда я пытаюсь вернуться к архитектуре, модель смотрит на меня как на незнакомца: "А что за проект? Борщ, говорите?"Если очень коротко, у современных LLM есть одна маленькая

продолжить чтение

AI-агенты в деле: 15 рабочих примеров для роста вашего бизнеса

AI-агенты радикально меняют подход технических команд к автоматизации, переходя от традиционных, основанных на правилах workflow к более динамичным, интеллектуальным системам, способным адаптироваться и принимать решения в реальном времени.В отличие от статической автоматизации, основанной на предопределенных триггерах и действиях, AI-агенты используют большие языковые модели (LLM) для обработки сложных данных, понимания контекста и реагирования на непредсказуемые сценарии.

продолжить чтение

Свой ChatGPT на документах: делаем RAG с нуля

Всем привет! Наверняка у вас были ситуации, когда нужно быстро найти что-то в длинном документе-договоре, инструкции или отчёте. Сегодня я покажу, как сделать своего помощника, который будет отвечать на такие вопросы автоматически. Соберем RAG с нуля: загрузим документы, "нарежем" их на куски, проиндексируем в Qdrant и подключим LLaMA через Amvera Inference.Если вы увидели незнакомые слова — не пугайтесь, далее я расскажу об этом подробно.Самое главное, что всё это работает самостоятельно, без зависимости от OpenAI.RAG - что это?

продолжить чтение

AutoPrompting: как улучшить промпты, сэкономив время и ресурсы промпт-инженеров

Всем привет! Интересно, что на Хабре статьи по этой теме я не смог найти.

продолжить чтение

MCP: новая игра на рынке искусственного интеллекта

Всё, что нужно знать о Model Context Protocol (MCP)«Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах». — Anthropic о важности интеграции контекста

продолжить чтение

Веб-агенты, которые действительно понимают веб-сайты: как слой восприятия Notte решает проблему DOM

Фундаментальная проблема веб-агентов заключается не в автоматизации — а в восприятии. Как позволить LLM навигировать и действовать на веб-сайтах, погребённых в слоях HTML?Техническая проблема: несоответствие импеданса DOMВеб-агенты традиционно полагались на хрупкие подходы: парсинг DOM, CSS-селекторы и анализ HTML-структуры. Это создаёт фундаментальное несоответствие импеданса между тем, как LLM обрабатывают информацию (естественный язык) и тем, как структурированы веб-сайты (разметка).Рассмотрим типичный подход к веб-автоматизации:

продолжить чтение