llm.
LLM Observability & AI Agent Tracing: большой гайд с обзором подходов и open-source решений
В этой статье я структурировал весь опыт и подходы к тому, как мониторить и трейсить LLM и AI-агентов на их основе. Это очень большая и тяжелая статья, но мне хотелось полностью закрыть всю тему за раз и создать крепкий бейзлайн для погружения в тему observability и трейсинга агентов.Поговорим про то, почему все LLM-based решения требуют новых подходов, обсудим ключевые проблемы агентов, посмотрим пару самых популярных решений и обзор всех опенсорсных и зафиналим трендами и направлением, куда все это движется.
LatentMAS: Секрет AI-агентов, которые думают без слов, работают точнее и экономят до 80% токенов
Если отбросить маркетинговый флёр вокруг «агентных систем», реальность довольно прозаична: как только вы собираете цепочку из нескольких LLM‑агентов, ваш счёт за токены и latency улетает в стратосферу. Судя по экспериментам в LatentMAS, классический текстовый multi‑agent‑пайплайн для олимпиадных задач уровня AIME‑24/25 легко выжигает десятки тысяч выходных токенов на одну единственную задачу, нередко переваливая за планку в 20к токенов для одного решения. И это не абстрактная проблема академиков: любой, кто пытался склеить ReAct/
Security Week 2549: вредоносные LLM без ограничений
Использование языковых моделей во вредоносной деятельности является достаточно свежим феноменом, который, впрочем, активно изучается. Так, в этой публикации
Мульти-модельная оркестрация LLM: архитектура маршрутизации, которая снизила затраты в 117 раз
Как мы провели 12,000+ API-вызовов к 11 моделям, открыли правило 60-70, и построили систему маршрутизации с ROI 4,853xКонтекст: кто пишет и о чём эта статьяИгорь Масленников. В IT с 2013 года. Последние два года развиваю AI Dev Team в DNA IT — подразделение, которое работает на мульти-модельной архитектуре. Это техническая статья о том, как мы построили систему оркестрации LLM-моделей для платформы генерации образовательных курсов.Статья для тех, кто:Строит AI-продукты и упирается в стоимость APIДумает о мульти-модельной архитектуре, но не знает, с чего начать
Сравнительный анализ 18 LLM моделей: конец монополии?
Сравнительный анализ 18 LLM моделей: конец монополии?Ноябрь 2025 — месяц, когда open-source модели официально догнали проприетарные. Разбираем, что произошло, кто теперь на вершине, и как это использовать в своих проектах.
Применение локальных LLM для OCR
Вдруг кому-то будет полезно. Возникла задача быстрого распознавания данных с фотографий и получения из них структурированной информации. Так же важно было отсутствие требовательного к ресурсам ПО и легкость разворачивания системы. Поэтому было решено попробовать использовать в качестве подключаемого модуля мультимодальные LLM запускаемые под Ollama, т.к. у неё есть REST API по которому удобно обращаться к модели.В последних версиях Ollama появился графический интерфейс, но он неудобен. Модели в ollama проще всего загрузить из командной строки. Например: ollama pull codellama.
Claude Code: держите контекст чистым, а контроль — под задачу
ВведениеЯ сижу в Claude Code с релиза — каждый день, на реальных задачах. Успел побыть и скептиком («очередная хайповая штука»), и фанатиком («агент всё сделает сам»). В итоге пришёл к набору правил, которые помогают не скатываться в крайности.Для меня Claude Code — лучший агент на рынке. Cursor, Gemini CLI, Codex пробовал, но разница ощутимая. Anthropic реально вкладываются в продукт и регулярно добавляют фичи.Статья для тех, кто начинает работать с Claude Code. Опытным многое будет знакомо, но наверняка что-то зацепит. Две части: как не засорять контекст и как менять подход в зависимости от задачи.Следите за размытием контекстного окна
Интеллект в графе: как структурированное знание становится капиталом
Предыстория и мотивацияВ современном цифровом предприятии знания перестали быть статичными документами — они живут, развиваются и меняются вместе с системой.Каждый сервис, процесс, интерфейс или поток данных является носителем смыслов, и все эти смыслы взаимосвязаны.Чем сложнее организация, тем важнее становится способность сохранять и использовать знания в структурированном виде.Почему это важноКогда знание зафиксировано только в презентациях, описаниях или локальных моделях — оно быстро устаревает.В отличие от этого, структурированное знание

