Что такое MCP-сервер, и зачем он нужен
Привет, Хабр! Меня зовут Андрей Слесаренко — frontend‑разработчик с опытом работы более 8 лет. Прошёл путь от джуна до тимлида, работал над разными высоко‑нагруженными проектами. В начале этого года начал активно использовать LLM‑агентов в повседневной работе — и за это время набил немало шишек.В этой статье хочу поделиться своим опытом, где мои ожидания разошлись с результатом, а также рассказать об основных «шишках», которые я набил при работе с агентами. Поскольку я frontend разработчик, в конце приведены примеры MCP реализаций, которые стоит взять на вооружение.Для кого эта статья:
AI-Accelerated Engineers VS AI Governance Engineers (новые типы специалистов в 2026 году)
Раньше в резюме строчка Уверенный пользователь MS Office (Word, Excel) была обязательна, так же как стрессоустойчивость, коммуникабельность, работа в команде.Думаю, теперь обязательной строкой станет:«Уверенный пользователь AI. Problem decomposition, structured prompting, critical evaluation of AI outputs, code and workflow automation.»Я уже вижу, насколько отличается скорость разработки у инженеров, которые активно используют ИИ и у тех кто не используют ИИ вообще или используют его неэффективноИ в будущем это еще сильнее будет бросаться в глазаПри этом, по моему ощущению, командам нужны два типа инженеров.
AI без интернета (офлайн) на своем компьютере
Зачем это обывателю?Кейсов на самом деле не мало, как минимум это бесплатно и дает возможность запускать AI без облака, чтобы ничего не отправлялось в интернет (приватность, скорость), ну и на случай если упадет интернет как например у нас было в Испании когда все электричество пропало, хорошо бы иметь умного ИИ с которым можно будет пообщаться)Еще можно использовать как офлайн переводчик или объяснялку без интернета, помощника по учебе и изучения чего либо.Для профессионалов это вообще оогромная область, от исследования как это работает до разного рода кастомизаций и применений.
Как ИИ создавал клоны «Сапера»: тест четырех моделей и неожиданные результаты
Источник.Недавно команда специалистов по ИИ провела эксперимент
Не бойтесь, что ИИ всё сделает за вас. Бойтесь забыть, зачем вам это нужно
Введение: Тревога у костраВ профессиональных чатах и на конференциях по разработке ПО сегодня витает специфический страх. Он пахнет дымом у костра, вокруг которого собрались те, кто ещё вчера чувствовал себя творцом цифровой вселенной. GPT-4 пишет код по наброску на салфетке. Copilot предугадывает целые функции. Аналитики один за другим выносят вердикт: профессия программиста если не умрёт завтра, то неизбежно обесценится. Кажется, мы наблюдаем закат жрецов, которые когда-то научились разговаривать с кремнием на его собственном языке.
Production-ready архитектура AI-агента. Часть 1: ReAct, Advanced RAG, Tools, Prompts
Интересный получился 2025 год: с одной стороны нахлынула волна хайпа вокруг AI‑агентов, с другой стороны не меньшая волна скептицизма и критики остудила пыл многих. Мол, это всё дорогая игрушка — поиграли, забыли, выбросили. На примере разработки AI‑консультанта для своей компании поговорим о системном подходе к проектированию архитектуры production‑ready AI‑агентов, который мы применяем при создании агентских систем для бизнеса. Да-да, именно систем, включая всё критически необходимое для того, чтобы агенты не стали игрушкой, а приносили пользу и оправдывали своё назначение.Поехали...
Умная афиша концертов Золотого кольца России: Python + LLM
Содержание: 1. Знакомство с сервисом 2. Архитектура 3. Важные нюансы 4. Развёртывание в PROD1. Знакомство с сервисомКак это работает? Представим, что «Знаток концертов» — Ваш умный библиотекарь 📚. Он настоящий специалист в своём деле, и по каждой книге (концерту) у него есть заметка с кратким содержанием 📝Вы приходите к библиотекарю с мыслью "что-то этакое почитать"
Топовая китайская модель MiniMax M2.1 уже доступна бесплатно в Koda для VS Code и CLI
Команда MiniMax представила обновление своей модели — MiniMax M2.1, сделав основной упор на производительность в реальных сложных задачах, с которыми ежедневно сталкиваются разработчики и команды.Если в M2 ключевой фокус был на стоимости и доступности модели, то в M2.1 разработчики целенаправленно прокачали практическую применимость: мульти-язычное программирование, агентные сценарии и офисные workflow.Модель демонстрирует лидирующие результаты в:Rust, Java, Go, C++Kotlin, Objective-C
Флагманская модель для кодинга GLM-4.7 доступна бесплатно в Koda для VS Code и CLI
Китайская команда Z.ai представила GLM-4.7 — новую версию своей модели для кодинга. Обновление получилось далеко не косметическим: основной фокус сделан на агентные сценарии, работу в терминале и устойчивость на длинных задачах.
ИИ в 2026 году: три основных направления развития
Илья СмирновРуководитель AI/ML практики

