Prometheus.

Утечка, которой не было: как Next.js раздувает RAM в Kubernetes

Привет, Хабр! Меня зовут Вадим Королёв. Я руководитель команды разработки в X5 Tech. Очень люблю Next.js и решать проблемы, которые он приносит. С ним всегда происходит что-то интересное. Расскажу о причине утечки памяти в Node.js, которая оказалась глубже, чем можно было подумать.

продолжить чтение

10 лучших open source инструментов Observability 2025

В этом году инструменты observability с открытым исходным кодом вышли за рамки простого мониторинга. Теперь они конкурируют, а зачастую и превосходят коммерческие SaaS‑платформы по масштабируемости, гибкости и совместимости. Команды из разных отраслей внедряют стеки решений наблюдения с открытым исходным кодом, чтобы избежать привязки к одному поставщику, обеспечения сквозной прозрачности (логи, метрики, трассировки), экономии на лицензиях и много другого.

продолжить чтение

Эффективная стратегия мониторинга: ключевые метрики для успешного наблюдения

Современные решения, построенные на микросервисной архитектуре, напоминают сложный организм: сотни взаимосвязанных компонентов, распределенные базы данных, облачные сервисы. Без продуманного наблюдения даже мелкая ошибка в одном узле может спровоцировать цепную реакцию — например, падение конверсии из-за «зависшего» платежного шлюза или потерю данных из-за перегруженной очереди сообщений.Грамотная стратегия мониторинга решает три ключевые проблемы:Сбои: предсказывает и локализует инциденты до того, как они ударят по бизнесу.

продолжить чтение

12 событий апреля, которые нельзя пропустить

Что ждёт в апрелеAI агенты на основе LLM: что нас ждет?Как избежать хаоса: управление содержанием и изменениями в IT-проектахAgile 2025: что поменялось и почему классический Scrum уже не работает?Машинный перевод seq2seq: и как обучить модель понимать языкиВнедрение автоматизации тестирования для QA LeadDocker в действии: как контейнеризация меняет аналитику данных?Знакомство с Apache Kafka

продолжить чтение

Метрики оценки LLM: полное руководство по оценке LLM

Независимо от того, улучшаете ли вы точность модели путем дообучения или улучшаете контекстную релевантность системы генерации с дополненной выборкой (RAG), понимание того, как разрабатывать и выбирать подходящий набор метрик оценки LLM для вашего варианта использования, является обязательным для построения надежного конвейера оценки LLM.

продолжить чтение

Rambler's Top100