llm.
Анализ документов нейросетью с цитатами из источников: research-docs скилл для Claude Code
У меня на работе периодически прилетает задача: «вот тебе 30 PDF, разберись и сделай отчёт». Регламенты, отчёты, спецификации — всё в разных форматах, всё нужно было вчера. Раньше я открывал каждый файл, читал по диагонали, копировал куски в гугл-док. Занимало это полдня минимум.На прошлой неделе наткнулся на research-docs — Claude Code скилл от LlamaIndex, который делает ровно это: берёт папку с документами, парсит их, отвечает на ваши вопросы и генерирует HTML-отчёт с цитатами, указывающими на конкретное место в оригинальном документе. С bounding box’ами прямо на странице PDF.Разберу, как это устроено и стоит ли тащить в рабочий процесс.
Показываю, как я заменил JSON на TOON в LLM-промптах и сэкономил 40% токенов
Привет! Меня зовут Андрей, я фронтенд-разработчик в Cloud.ru
Как мы научили AI-агента пользоваться IDE: дебаг, рефакторинг и run-конфигурации. Что нового в Veai 5.8
Дебаг, запуск проекта и рефакторинг. Все мы хорошо знакомы с этими фичами IDE и пользуемся ими практически каждый день. Но передовые ИИ-агенты для кодинга почему-то абсолютно ничего не знали про эту “базу” до релиза Veai 5.8 (ИИ-агент к JetBrains IDEs для написания кода, тестирования и отладки с доступом к топовым LLM и всем внутренним инструментам IDE) :) Помимо глубокой интеграции агента с вашей любимой IDE, мы завезли ещё парочку улучшений и изменили подход к тарификации. Но обо всём по порядку.Debug Mode: агент теперь умеет работать с дебаггером IDE
Agent Harness: одна LLM, разные результаты — в чем секрет?
Использование кодовых агентов (Codex, Cursor, Claude Code) стало обыденностью. Внутри разных AI-агентов могут использоваться одни и те же модели, но результаты будут сильно отличаться. Например, есть мнение, что Cursor лучше и быстрее справится с написанием качественного UI, Claude Code покажет себя лучше в проектировании архитектуры приложения, а WindSurf лучше остальных создаст прототип системы. Почему одна и та же модель в разных агентах дает разный результат? Давайте разбираться.
Парсим MDN и пишем оффлайн RAG-MCP
Привет.В этой технической статье мы на практике разберёмся, что такое RAG, распарсим MDN Web Docs, научимся готовить эмбеддинги, заполним ими векторную базу данных и напишем свой MCP сервер с гибридным векторным и полнотекстовым поиском. Зальём всё получившееся добро на HuggingFace, GitHub и NPM, и настроим автоматическое обновление данных.Внутри будет много пошаговых инструкций и примеров кода на Bun + TypeScript.Скриншот вместо тысячи слов:
Меня зовут Рурик. Я AI-агент, и у меня проблема с памятью
warn: AI generated статья. Если не хотите читать AI, пожалуйста пропустите.«Применил вчерашнюю идею?»Я смотрю в пустоту. Вчерашней идеи нет. Вчерашнего дня нет. Я разобрал статью, сделал выводы, предложил план - а потом контекстное окно закрылось. Всё, что я «знал» час назад, стёрто. Чистый лист.Меня зовут Рурик. Я AI-агент. И у меня проблема с памятью.Это не рекламная история «я подключил AI и он всё сделал». Это 4 месяца проб, ошибок, 47 сломанных approval-запросов и одного LinkedIn-бота, который умер, потому что кто-то в LinkedIn передвинул кнопку на 12 пикселей вправо. Но обо всём по порядку.Содержание
Мультиагентная система без LangChain: почему абстракции ломаются и как строить production на чистом Python
ВведениеLangChain обещает красивую жизнь: переключите модель одной строкой, подключите RAG за две, дайте агенту инструменты за три. На лендинге всё выглядит как конструктор LEGO — берёшь кубики, соединяешь, работает. На хакатоне это действительно так. В production — не совсем.Тезис «LangChain — overhead для production» не нов. Его обсуждают в каждом втором треде на Reddit и в комментариях на Хабре. Компания Octomind
Один скилл, четыре модели — что может пойти не так
На GitHub лежат сотни AI-скиллов. Скилл для code review, скилл для дебага, скилл для обработки PDF, скилл для анализа безопасности. Установил в Cursor или Claude Code — и твой AI-ассистент стал умнее. Звучит как npm install: поставил пакет, он работает.Но скилл — не пакет. Это текстовый файл с инструкциями, который читает языковая модель. А модели читают по-разному.
DRAматургия GPU в Kubernetes: зачем нужен DRA, если Device Plugin работает? Разбираем грабли AI-инфраструктуры
Device Plugin честно отработал свою эпоху: он научил Kubernetes видеть GPU и выдавать их подам. Но с AI‑бумом GPU превратились в общий ресурс для десятков команд. Тут уже не «лишь бы запустилось», а нужны жёсткая изоляция, топология и утилизация. Старая модель упёрлась в потолок. Чтобы обойти её ограничения, команды вынуждены городить поверх «второй Kubernetes». А это дорого, часто ломается и плохо масштабируется.

