mcp.
Как я спас агентов в VS Code от передоза инструментами, сжав зоопарк MCP-серверов в один Go-бинарник
Когда вы ставите в VS Code популярные агентные расширения (Cline, Roo Code, Kilo), быстро выясняется одна мерзкая вещь. Обычно начинаешь подключать к ним новые инструменты быстрее , чем LLM под их капотом способна их адекватно переварить.Сначала все выглядит безобидно. Вы подключаете к редактору пару MCP-серверов: один для файлов, другой для поиска. Агент радуется, вы радуетесь, всё работает. Но потом начинается: "О, прикручу-ка я еще сервер для базы данных... и GitHub... и внутреннюю Jira... и вон тот OpenAPI-каталог".В какой-то момент вы открываете свой mcp.json и видите там 25 серверов. А агент начинает творить дичь.
Atlassian запустила инструменты визуального ИИ и сторонние ИИ-агенты в Confluence
Atlassian анонсировала новые инструменты и агенты на основе искусственного интеллекта, ориентированные на преобразование данных в визуальные ресурсы и приложения.
Я просканировал 30 публичных MCP-серверов: почти половина не дошла даже до скоринга
Коротко: я взял 30 публичных MCP-серверов, попытался прогнать их через детерминированный CI-сканер и довольно быстро понял, что проблема экосистемы - не только в рискованных тулзах, но и в банальной launchability: часть серверов не стартует в headless-режиме, часть требует скрытую конфигурацию, часть ломает протокол мусором в stdout.Сейчас MCP-серверы стали для LLM-агентов тем же, чем когда-то были обычные пакеты и API-интеграции для разработчиков: стандартный способ дать модели доступ к инструментам, данным и внешним действиям.
Парсим MDN и пишем оффлайн RAG-MCP
Привет.В этой технической статье мы на практике разберёмся, что такое RAG, распарсим MDN Web Docs, научимся готовить эмбеддинги, заполним ими векторную базу данных и напишем свой MCP сервер с гибридным векторным и полнотекстовым поиском. Зальём всё получившееся добро на HuggingFace, GitHub и NPM, и настроим автоматическое обновление данных.Внутри будет много пошаговых инструкций и примеров кода на Bun + TypeScript.Скриншот вместо тысячи слов:
MCP не умер: почему ИИ-агенты тонут в контексте
Год назад Model Context Protocol (MCP) казался решением всех проблем разом. Один протокол, чтобы связать ИИ-агентов с GitHub, Slack, Jira и внутренними базами данных. Никаких кастомных плагинов, только чистая стандартизация. И индустрия в это поверила: к
AI для умного дома: что уже работает сегодня (часть 1)
В статье — не просто список инструментов, а как они сочетаются, какие подводные камни ждут при развёртывании, какие цифры можно ожидать по производительности и как обойти ограничения Llama 8B без облачных кредитов.1. Ollama — локальные LLMOllama запускает большие языковые модели на вашем сервере. Без облака, без API-ключей.Зачем в умном доме: понимание естественного языка. «Включи свет в гостиной» → модель извлекает намерение и сущность, можно передать в HA.Ресурсы:
Как продакт без тех. бэкграунда запустил два продукта за неделю: стек, флоу и MCP под капотом
Дисклеймер: я продакт, не разработчик. Тех. бэкграунд — теоретический. Эта статья про то, как выглядит вайб-кодинг глазами PM и что реально работает, а не что обещает маркетинг. Контекст и проблемаУ большинства продактов, которые хотят запустить что-то своё, есть один и тот же потолок: нет команды → нет продукта. Найм, онбординг, выстраивание процессов, ожидание первых релизов — это месяцы и деньги ещё до первой проверки гипотезы.Последнюю неделю я тестировал, насколько этот потолок реален в 2025 году. Результат — два живых проекта:личный сайт по продуктовому консалтингу
Luminarys AI: платформа AI-агентов с изолированными навыками и кластеризацией
Luminarys AIМодульная платформа для запуска AI-агентов, где каждый навык работает в WebAssembly-песочнице, агенты масштабируются на кластер из разнородных машин, а навыки пишутся на Go, Rust или AssemblyScript.Привет, Хабр.
КП за 30 секунд — и ещё 9 задач, которые я больше не делаю руками
Я работаю с Claude каждый день, по многу часов. За это время я автоматизировал кучу рутины — от утренних брифингов до генерации коммерческих предложений. Не теоретически. Реально.Но давайте сразу расставим точки. Claude не заменяет мне голову. Он — напарник. Second brain. Тот, кто собирает информацию, готовит черновик, вытаскивает контекст из прошлых переписок. А решения принимаю я. Всегда. Это не «AI сделал за меня работу» — это «AI подготовил мне почву, чтобы я работал быстрее и не тратил мозг на рутину».

