Что я вынес из AMA с инженером Anthropic: 12 инсайтов про Claude Code, которые нигде не написаны
Прямо сейчас идет Built with Opus 4.7: a Claude Code hackathon. Было более 20 тысяч заявок, отбор прошли менее 2% и я стал одним из тех, кому посчастливилось попробовать свои силы и получить API токенов на $500 (но об этом в другой раз). Так вот сегодня был AMA с Thariq Shihipar, одним из инженеров, который работает с Claude Code. Не маркетинговый вебинар, а живой разговор с человеком, который сам пишет skills, крутит loops и дебажит CLAUDE.md каждый день. Ниже то, что я записал и проверил на своих проектах.1. Skills, а не агентыГлавный тезис, который Tharik повторил несколько раз: skills это primary extension point для Claude Code. Не агенты, не MCP-серверы, не промпты в CLAUDE.md.
Если агент пишет код, то кем становится человек?
Андрей Карпати в январе 2026 года ввёл термин agentic engineering и сказал: вы не пишете код 99% времени, вы оркеструете агентов и выступаете надзором. Борис Черни, руководитель Claude Code в Anthropic, сообщил, что с ноября не правил ни одной строки руками и отгружает по двадцать с лишним пуллреквестов в день. Весь код пишет агент. Формулировки красивые. Хуже, что никто из них не объясняет, чем именно занят человек в эти 99% времени и что происходит, когда процесс не выстроен.
785 статей. 26 доменов. Для агентов, не людей
Live: https://happyin.space/ Repo: https://github.com/AnastasiyaW/knowledge-space (MIT)Когда агент пишет код в пустом проекте, он тратит первые 30-40% токенов на понимание того, что происходит вокруг. Не на работу - на ориентацию. README рассказывает мотивацию, туториал ведёт за руку, API-reference описывает параметры. Ни один из этих форматов не отвечает на вопрос, ради которого агент и пришёл: “вот задача, какой паттерн скопировать и где здесь грабли?”
Anthropic случайно показали свои планы на Claude Code
https://x.com/TheAmolAvasare/status/2046724659039932830Вчера на странице цен claude.com/pricing у Claude Code в колонке Pro ($20/мес) появился красный крестик. Без анонса, без changelog. Минимальным планом с Claude Code
Как научить Claude Code работать с вебом и не сжигать на этом лимиты
Попросить LLM-агента типа Claude Code "сходи в интернет и собери мне данные" - это как играть в казино. Иногда везет, и ты получаешь то что искал. А иногда сжигаешь половину дневного лимита на двух сайтах, упираешься в антибот защиту и в итоге получаешь кашу из тегов вперемешку с куском нужного контента.
Онлайн-вебинар: научи своего AI-агента писать код на Spring
Уже в этот четверг Илья Кучмин (AI DevTools Lead) и Павел Кислов (Эксперт Spring АйО) проведут прямую трансляцию, на которой расскажут, как:ускорить разработку с AI-агентами (Claude, Codex, OpenCode, ...)снизить количество токенов во время решения рабочих задачи получать код, который не приходится переписывать вручную (ну почти)
Opus 4.7 использует на 45% больше токенов. Реальные замеры против обещаний Anthropic
В гайде по миграции для Claude Opus 4.7 написано: новый токенайзер использует «примерно в 1.0–1.35 раза больше токенов», чем 4.6. Я замерил и получил 1.47x на технической документации, и 1.45x на реальном CLAUDE.md-файле.Цены те же. Квоты те же. Токенов в промпте больше. Max-план сгорает быстрее. Кешированный префикс стоит дороже за каждую итерацию. Рейтлимит наступает раньше.Значит, Anthropic что-то получили в обмен. Что именно — и стоит ли оно того?Я провёл два эксперимента: первый измерил стоимость, второй проверил заявленные преимущества. Вот что получилось.Сколько это стоит? Для измерения я использовал POST /v1/messages/count_tokens
Claude Opus 4.7: трейд-оффы, Extra High и новый характер
Вокруг 4.7 сейчас будет много разборов. Ниже — не пересказ релиз-страницы, а то, на что я обратил внимание после её чтения и migration guide. Где 4.7 хуже 4.6, почему дефолт в Claude Code подняли до xhigh
Anthropic выпустили Claude Opus 4.7
Сегодня Anthropic объявила о выходе Claude Opus 4.7. Модель стала заметным шагом вперёд в программировании: в тестах на реальных задачах Cursor зафиксировал рост с 58% до 70%, CodeRabbit отметил улучшение recall на 10% при стабильной точности, а Rakuten — трёхкратный рост решённых production-задач по сравнению с Opus 4.6.
Что такое Harness? Полный разбор на примере Claude Code, OpenAI и LangChain
Глубокий разбор того, что на самом деле строят Anthropic, OpenAI, Perplexity и LangChain. Оркестрационный цикл, инструменты, память, управление контекстом — и всё остальное, что превращает stateless LLM в работающего агента.Допустим, вы собрали чатбот. Может, даже прикрутили ReAct-цикл с несколькими инструментами. На демо работает. Но стоит попробовать сделать что-то production-grade — и всё начинает сыпаться: модель забывает, что делала три шага назад, вызовы инструментов падают без ошибок, контекстное окно забивается мусором.Проблема не в модели. Проблема во всём, что её окружает.

