Второй мозг и LLM‑Wiki: Теория и практический гайд по созданию и поддержке личной базы знаний
В этой статье поговорим про концепцию «второго мозга»
Перевод: LLMs Corrupt Your Documents When You Delegate от Microsoft
Это перевод научной статьи от исследователей компании Microsoft. Статья была опубликована 17 апреля 2026 года. См. источник
AI-friendly и AI-first: как адаптировать ИТ-проекты под эру LLM
Привет, Хабр! Последние полгода стало модно создавать новые и переводить старые проекты на рельсы AI-First (или AI-Friendly) стандарта. Уже появляются проекты, которые декларируются как «designed for AI to write». Например, AIR
Как переложить нагрузку по code review с разработчиков на LLM
Привет! Меня зовут Марк Каширский, я работаю DS-инженером в команде LLM Авито. Создаю инструменты для разработчиков, чтобы им было легче и удобнее работать. В статье рассказываю, как мы автоматизировали процесс Code review при помощи больших языковых моделей.В этой статьеПричины для автоматизации процесса Code reviewАрхитектура системы Code reviewВыбор LLM-моделиЭтапы ML-пайплайнаМетрики решения
Is a new wave of process excellence coming?
TL;DR Companies are rolling out AI by trying agents on whatever comes to mind, without the process mapping discipline that used to precede any serious automation. It's worth asking whether that discipline is about to matter again, as agent architecture, token economics, and regulation start catching up with the experimentation.It's a strange question to ask in 2026, when agents are at the top of most companies' agendas and calling yourself "AI-native" has become almost mandatory. Against that backdrop,
Разговоры ничего не стоят. Код тоже
В наше время известное изречение Линуса Торвальдса "Talk is cheap. Show me the code." можно переиначить в виде "Code is cheap. Show me the spec." Меня зовут Алекс Гусев и в этой публикации я постараюсь показать, почему я так считаю. У меня есть несколько статей на Хабре, объединённых общей темой: ADSM
Один timestamp, один round-robin, один плавающий список tools: 7 анти-паттернов, которые убивают префикс кэша LLM
В процессе подготовки статьи про экономику кэширования, собрал несколько анти-паттернов, способных все сломать. Сначала были мысли о том, что это будет короткая врезка в конце, но подняв заметки и сделав пару ресерчей - стало понятно, что это вообще отдельная тема.Таких поломок с prefix_cache много, но механика у них схожая. В этой статье попытался свести все к трем причинам: у запросов перестаёт совпадать начало, одинаковые запросы попадают на разные машины, или прогретый кэш не доживает до следующего обращения.
Защита агентных приложений по OWASP Agentic Top 10 и модели Trifecta
Все мы знаем, что агентные системы давно не просто "чат-боты 2.0". Это уже полноценные приложения, которые:планируютвыполняют сложные цепочки действийвызывают инструменты (API/FS/shell/browser)хранят и используют память (RAG/long-term)общаются с другими агентамиНо делают все эти действия со скрытыми "побочными эффектами"

