mcp.
Тюнинг Cursor: как я укротил AI-ассистента и радикально снизил счета за токены с помощью MCP-серверов
Cursor или его аналоги, здорово облегчают написание кода, когда речь идет о каких-то не очень больших проектах. Но стоит попробовать применить их к серьезному, сложному проекту, состоящему из нескольких репозиториев, и тут же сталкиваешься с тем, что эти “чудеса” оборачиваются просто огромными счетами за токены. Я в этой статье поделюсь, как мне удалось перестать впустую сжигать миллионы токенов. Для этого пришлось собрать и запустить три MCP-сервера по протоколу Model Context Protocol, что позволило сэкономить до 90% бюджета, при этом совершенно не потеряв в эффективности модели при работе с кодом.
Agent Loop: почему одного вызова инструментов уже недостаточно для корпоративного AI-агента
В последние два года разговор об AI-агентах почти везде начинается одинаково. Берётся большая языковая модель, к ней подключаются инструменты — поиск, CRM, почта, база знаний, API — и дальше предполагается, что модель сможет сама выбрать нужный инструмент, вызвать его и на этом решить задачу.
Я пришёл Тимлидом в новую компанию и собрал её в файлы вместо двадцати вкладок
Третья неделя в новой компании. Меня спрашивают, кто в соседней команде отвечает за конфиги админки и где лежит контракт по realtime-интеграции с витринами партнёров. Я отвечаю без открытия браузера.Не потому что гений. Просто всё это уже лежит у меня в одном каталоге, и я быстрее читаю свой файл, чем переключаюсь между Slack и Confluence.КонтекстЯ тимлид в B2B-компании с довольно типичным для продуктовой разработки обвесом: Jira, GitLab-группа с несколькими десятками подгрупп и сотней репозиториев, Confluence с кучей спецификаций по архитектуре, Slack с парой десятков активных каналов и транскрипты звонков через свою поделку.
Model Context Protocol (MCP): как ИИ-агенты «разговаривают» с внешним миром
Взаимодействие MCP и LLMЕсли вы читали или смотрели видео про MCP, то наверняка сталкивались с таким комментарием: «Спасибо, ещё одна статья, из которой я ничего не понял».Аналогии и пояснения вроде «MCP — это как USB Type-C» или «MCP — это Tools, Resources и Prompts»
AI в iOS-разработке: что у меня реально закрепилось в 2026, а что я выкинул
За последние полгода я перетряс свой рабочий стек полностью: Cursor, Claude Code, Codex, локальные Qwen-модели для ревью, несколько итераций своего AGENTS.md, Xcode MCP, mobile-mcp, Conductor для параллельных сессий. Что-то прижилось, что-то я удалил через неделю, а какие-то практики, которые ещё весной казались обязательными, сейчас выглядят странно.Ниже — мои личные заметки по итогам этих полугода, а не обзор индустрии. Многое я подсмотрел у коллег и в чатах, не всё придумал сам.1. Минимализм в AGENTS.mdЕсли у вас CLAUDE.md (или AGENTS.md
785 статей. 26 доменов. Для агентов, не людей
Live: https://happyin.space/ Repo: https://github.com/AnastasiyaW/knowledge-space (MIT)Когда агент пишет код в пустом проекте, он тратит первые 30-40% токенов на понимание того, что происходит вокруг. Не на работу - на ориентацию. README рассказывает мотивацию, туториал ведёт за руку, API-reference описывает параметры. Ни один из этих форматов не отвечает на вопрос, ради которого агент и пришёл: “вот задача, какой паттерн скопировать и где здесь грабли?”
Как научить Claude Code работать с вебом и не сжигать на этом лимиты
Попросить LLM-агента типа Claude Code "сходи в интернет и собери мне данные" - это как играть в казино. Иногда везет, и ты получаешь то что искал. А иногда сжигаешь половину дневного лимита на двух сайтах, упираешься в антибот защиту и в итоге получаешь кашу из тегов вперемешку с куском нужного контента.
Собираем AI-агента нового поколения: Python, RAG и внешние инструменты через MCP (Model Context Protocol)
Введение: от простых цепочек к агентам, которые действуютЕщё пару лет назад типичное LLM-приложение выглядело как последовательная цепочка вызовов: взяли промпт, добавили контекст из векторной базы, отправили в модель, получили ответ. LangChain популяризировал эту парадигму — chains, retrievers, memory — и это работало для простых сценариев вроде «ответь на вопрос по документации».Но бизнес-задачи редко укладываются в линейный пайплайн. Пользователь хочет не просто получить ответ, а чтобы система совершила действие
Full-stack верификация: как Playwright-агент тестирует UI, затем проверяет базу данных без единой строки SQL
Ваш тест на оформление заказа нажимает «Оформить заказ» и видит зелёный тост. Хорошо. Но вот чего он не проверяет: реально ли записалась строка? Правильно ли записались позиции заказа? Уменьшился ли инвентарь? UI написал «подтверждено», но UI иногда врёт — проглоченная ошибка, откаченная транзакция, очередь, которая молча дропнула сообщение.
Пробуем на себе: LLM в разработке
Рассказываю о реальном опыте использования AI в разработке и о тех практических результатах, которых удалось добиться за один год регулярной работы с современными языковыми моделями. Спойлер: получилось многое, но не все.

