Observability vs Monitoring: за что вы платите?
Помню, как на собеседовании в одну крупную компанию мне задали вопрос: "Чем отличается observability от monitoring?" Я уверенно ответил что-то про "три столпа" и "unknown unknowns". Интервьюер кивнул, но потом спросил: "А зачем платить $100k в год за Datadog, если можно поставить бесплатный Prometheus?"
Генеративный ИИ как штатный инженер техподдержки: настройка, внедрение, реальные ошибки
Эксперимент, начавшийся как попытка автоматизировать ответы на тикеты, закончился созданием почти самостоятельного "сотрудника" службы поддержки. В статье рассказываю, как мы внедряли генеративную модель в техподдержку, как настраивали контекст, ловили баги. Много практики, немного самоиронии и код, который заставил rethink-нуть наш пайплайн поддержки.
Как добавить AI-ревью и ответы ассистента в Pull Request всего за 30 минут
В этой статье я покажу, как всего за 30 минут встроить в ваш CI/CD-пайплайн полноценного AI-ревьюера и ассистента — без платных API-ключей, без интеграции с OpenAI и без лишней инфраструктуры. Всё, что нам понадобится, — это AI Review и OpenRouter — универсальный шлюз к десяткам LLM, от GPT-4o до Claude и Mistral, доступный бесплатно.Мы настроим систему так, чтобы она автоматически запускалась при каждом Pull или Merge Request и не только оставляла комментарии к коду — от точечных inline-замечаний до
AIOps — как воображаемый strartup внедрил ИИ
Предисловие Давайте будем честны, современные подходы к выстраиванию алертинга и реагированию на инциденты в большинстве современных компаний оставляют желать лучшего:Тысячи алертов сыпятся в чаты, которые никто не читает;Постоянно создаются десятки разрозненных дашбордов, половина из которых устарела, а половина задезайнена так, что разобраться способен только их создатель;А если происходит сбой, то для выявления причины зачастую приходится собирать консилиум из DBA, сетивиков и инженеров всех смежных команд.
Облачная vs локальная LLM: что выбрать для своего проекта
Привет! На связи София Филиппова, AI-engineer at Innova и спикер курса «AI в DevOps» от Слёрма. Сегодня хочу поговорить о том, как сделать выбор между облачной и локальной LLM.
Поиск работы в IT сломан. Я устал это терпеть и написал код, который играет против правил
Привет, Хабр.Давайте по-честному. Искать работу в IT - это боль. Это не похоже на то, что нам обещали: интеллектуальные задачи, интересные проекты, уважение. Вместо этого мы получили бесконечный скроллинг hh.ru, вымученные сопроводительные письма и звенящую тишину в ответ.Как консультант, я вижу всю изнанку этого процесса, и хочу поделиться, почему все так хреново. Это игра с поломанными правилами, где побеждает не самый талантливый, а самый выносливый.Правило №1: "Откликайся как можно больше!". И вот ты отправляешь 100 резюме, чувствуя себя спам-ботом.Правило №2:
ReVu — Open Source AI-ревьюер для ваших Pull Request
Всем привет!Недавно мы с приятелем обсуждали, как устроены рабочие процессы в бигтех-компаниях и какую роль в них уже играет ИИ. Речь в основном шла о зарубежных компаниях — у него там есть знакомые, которые делились опытом изнутри. Один из самых любопытных моментов — использование искусственного интеллекта для предварительного код-ревью в Pull Request: прежде чем коллеги возьмутся проверять изменения, PR уже анализирует ИИ и указывает на потенциальные проблемы.
Docker начал предоставлять неограниченный доступ к защищённым образам для каждой команды
Команда Docker объявила о предоставлении неограниченного доступа к каталогу образов Hardened Images, чтобы сделать безопасные программные пакеты доступными для всех команд разработчиков в стартапах и компаниях малого и среднего бизнеса.

