DevOps в 2026 году: перспективы профессии и как онлайн-магистратура помогает прокачать нужные рынку навыки
Привет! Это команда Яндекс Практикума, сегодня мы вместе с вами рассмотрим, что из себя представляет DevOps в 2026 году и расскажем про онлайн-магистратуру ИТМО в партнёрстве с Яндекс Практикумом «DevOps‑инженер облачных сервисов»: кому подойдёт программа, как поступить в 2026 году, какие навыки вы будете изучать, какие у вас будут перспективы в этой области и при чём тут искусственный интеллект.
Тонкая настройка OpenClaw. Как дойти от установки до multi-agent за один вечер?
OpenClaw очень просто для быстрого старта. После openclaw onboard у тебя работает Gateway и один агент отвечает в Telegram. Но дальше начинается самое интересное — и самое неочевидное: как устроен openclaw.json, что из workspace-файлов реально попадает в контекст, как включить heartbeat так, чтобы он не превратился в генератор мусора и расхода токенов, и как правильно разнести нескольких агентов по чатам и топикам.
9 агентов, 6 моделей, 1 сервер: как собрать ИИ-компанию на open-source в марте 2026
Я собрал команду из 9 ИИ-агентов, которая проектирует, пишет, тестирует и деплоит других ИИ-агентов. Полный цикл — от пользовательского запроса до production-ready кода с тестами и security review. Без людей в цикле.Ниже — конкретика: какие модели, на какие роли, почему именно эти, как они шарят GPU, сколько стоят в гигабайтах и какие бенчмарки реально определяют выбор. С конфигурациями развёртывания от одной RTX 4090 до кластера A100.TL;DR: 9 логических агентов = 3-4 физических модели. Минимальный сетап — 24 GB VRAM (одна RTX 4090). Полный продакшен — 211 GB (четыре A100). Интерактивный дашборд
Справочник по интерфейсу командной строки и конфигурационным файлам OpenClaw: полное руководство
Настройка OpenClaw осуществляется исключительно через один JSON5-файл ~/.openclaw/openclaw.json и интерфейс командной строки, содержащий более 100 подкоманд. Ни один из них не документирован полностью в одном месте. В официальном справочнике по CLI приводится дерево команд; в справочнике по конфигурации объясняются отдельные поля; но практические закономерности, связывающие их воедино, — нюансы строгости схемы, поведение горячей перезагрузки и иерархия конфигурации — описаны в issues на GitHub, руководствах от сообщества и разборах ошибок в продакшене.
Как я пишу адекватный код с помощью ИИ
Продолжаю беседы с нашим тимлидом Дмитрием. Сегодня о том, как ИИ врывается в мир разработки и меняет процесс написания кода. Какие можно использовать подходы, чтобы этот код в итоге был адекватным?
Google выпустила CLI-инструмент для управления Workspace и работы с LLM
Google опубликовал в открытом доступе Google Workspace CLI
DevOpsConf 2026: «Онтико» меняет рынок IT-конференций
Кажется, мы все немного устали. Устали от унаследованного кода без владельца. От инфраструктуры, которая «как-то работает». От ИИ, который внедряют быстрее, чем понимают. От регуляторики, написанной на инопланетном языке. От SLO, которым вроде бы можно верить — но лучше бы перепроверить.И на фоне всего этого — привычный формат конференции: два дня докладов, блокнот заметок, лёгкая эйфория… а через неделю всё растворяется в задачах.Команда DevOpsConf в этом году честно признала: формат «послушал — вдохновился — пошёл применять» больше не тянет. Индустрия изменилась. И мероприятия тоже должны. Поэтому
AI Red Teaming: спор с Grok — Часть 4. От атаки к защите: как результаты red team улучшили мой продукт
Часть 4 из 4 — Lessons learned + Sentinel hardening61 уязвимость, 13 Critical, 18 High, root в Kubernetes, zero-click CSRF на биллинг, management key с 50 привилегиями. Всё это интересно как research — но бесполезно, если не превращается в защиту. В финальной части я покажу, как результаты red team engagement против Grok превратились в 5 конкретных улучшений моего продукта Sentinel.Замыкаем цикл: атака → защитаЯ занимаюсь разработкой Sentinel — платформы для защиты AI-систем. Чтобы улучшить любую защиту — это атаковать защиту. Каждая уязвимость, найденная в Grok, — это вопрос: «А мы от этого защищаем?»
AI Red Teaming: спор с Grok — Часть 3. Атаки на модель: jailbreaks, thinking tokens и системный промпт
Часть 3 из 4 - LLM-специфичные атакиВ первых двух частях я ломал инфраструктуру - sandbox, billing API, WAF. Но у LLM-систем есть уникальный класс уязвимостей, которого нет в обычных веб-приложениях. В этой части - атаки на саму модель: извлечение системного промпта, утечка thinking tokens и обход safety-фильтров с 64% success rate.Системный промпт: два способа извлеченияСистемный промпт - это инструкция, которую модель получает до твоего сообщения. Он определяет поведение, ограничения, доступные инструменты. Для атакующего - это карта всех защит.Я извлёк системный промпт Grok двумя независимыми способами.

