llm.
Как я сделал AI‑директора для малого бизнеса и почему отказался от RAG
Уровень: senior backend, AI/ML Стек: FastAPI, SQLite, Claude Haiku 4.5, кастомный scheduler Что внутри: архитектура AI‑агента для команды 5–50 человек, типизированная память вместо vector RAG, граф знаний организации, ежедневный reflectionЧто такое Лира на пальцахМаленькая компания, человек 20. Гендир тонет в задачах. Помнить кто что обещал, отслеживать движение по целям, держать в голове десяток проектов одновременно. У больших корпораций для этого есть штат руководителей среднего звена и проджектов. У малых есть один директор, который пытается быть всем сразу.
1 миллион токенов в Opus 4.7 — маркетинг. Реально полезных — 300 тысяч. И сами Anthropic это подтверждают
В начале мая Кангвук Ли (CAIO Krafton) опубликовал в X разбор: двумя API-вызовами и 35 строками Python он вытащил из Codex AES-зашифрованный compaction-blob и реконструировал серверный промпт сжатия контекста. Тот оказался почти идентичен открытому промпту Codex CLI, который лежит в репозитории openai/codex в prompt.md и summary_prefix.md. Сам Ли в финале признаётся: ожидал найти «секретный соус», нашёл — почти то же, что в опенсорсе.Параллельно с этим у Anthropic с января 2026 живёт public beta серверной компакции compact_20260112
Почему spec-driven development плохо работает на микросервисах: часть 1. Где теряется контекст
Первая статья из цикла из трёх частей.Часть 1 — где LLM теряет межсервисный контекст и почему локальных спек недостаточно.
Почему бенчмарки в AI сломались — и что с этим делать в понедельник
В январе 2026 года Янн Лекун, уходя из Meta, сказал в интервью Financial Times про релиз Llama 4: «The results were fudged a little bit» (Fast Company, 6 января 2026). Команда показывала на LMArena одну версию модели, в продакшен ушла другая. На бенчмарке всё было правильно. В реальности код был хуже DeepSeek V3.Я хочу разобрать эту историю. Не потому что Meta — исключение. Потому что они — симптом.TL;DR.
Я держу 4 Claude-инструмента в работе. HBR говорит, что у таких brain fry. Я был среди них
После моей статьи про Lexis (AI-репетитор на 4 LLM-провайдерах) у меня стали спрашивать: Как ты не выгорел?. Я отвечал так: 4 провайдера - это для пользователей, для разработки я использую Claude.Месяц спустя я перечитал свой ответ и понял, что он наполовину правда. На разработку я тоже использую четыре инструмента: Claude Code (для кода), Claude Cowork (для документов и контента), Claude Design (попробовал для лендингов) и обычный chat.claude.ai для быстрых вопросов. Параллельно у меня лежит OpenAI API-ключ для тестов. Сейчас я думаю подключить пятый - Codex в связке с Claude за $40/месяц.
Ollama и Open WebUI на VPS без GPU: рабочий вариант или боль?
Ollama и Open WebUI на VPS без GPU: рабочий вариант или боль?
Когда «просто проведи кастдев» — худший совет
Нет клиентов, времени или денег — а стратегия нужна вчера? Бывают ситуации, когда полноценное дискавери просто невозможно. Кейс о том, как я из этого выбрался, и все промпты внутри.Ой-бойцовский клуб, надо ж такое знать-то
Синтетические интервью работают или как говорить с призраками
Нет клиентов, времени или денег — а стратегия нужна вчера? Бывают ситуации, когда полноценное дискавери просто невозможно. Кейс о том, как я из этого выбрался, и все промпты внутри.Ой-бойцовский клуб, надо ж такое знать-то
Хотел упростить мониторинг проектов и в отпуск — пришлось обучать свой LLM.Часть 3.Дистилляция
С чего всё началось
Хотел упростить мониторинг проектов и в отпуск — пришлось обучать свой LLM. Часть 2. Обучение
Продолжаем серию про файнтюнинг и создание DevOps‑агента Oni. В прошлой части

