Я просил Claude перестать мне льстить. 16 апреля получил. Беру свои слова назад. ai coding.. ai coding. anthropic.. ai coding. anthropic. Claude.. ai coding. anthropic. Claude. llm.. ai coding. anthropic. Claude. llm. opus 4.7.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy. бенчмарки.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy. бенчмарки. искусственный интеллект.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy. бенчмарки. искусственный интеллект. Машинное обучение.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy. бенчмарки. искусственный интеллект. Машинное обучение. Программирование.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy. бенчмарки. искусственный интеллект. Машинное обучение. Программирование. разработка.. ai coding. anthropic. Claude. llm. opus 4.7. sycophancy. бенчмарки. искусственный интеллект. Машинное обучение. Программирование. разработка. Управление разработкой.

16 апреля Anthropic выкатила Claude Opus 4.7. На self-reported бенчмарках – 12 побед из 14. SWE-bench Verified +6.8, MCP-Atlas +14.6, SWE-bench Pro +10.9. Цена та же, 5/25 за миллион токенов.

Через 24 часа тред на Reddit с заголовком «Claude Opus 4.7 is a serious regression, not an upgrade» собрал 2300 голосов. На X пост в той же логике – 14000 лайков. Yahoo вынес заголовок «The Claude-lash is here».

И вот тут у меня щёлкнуло. Месяц назад я писал статью про сикофантию. Жаловался, что Claude поддакивает любому коду, как стажёр перед увольнением. Хотел модель, которая будет меня поправлять. 16 апреля Anthropic в release notes пишет: «more direct, opinionated tone with less validation-forward phrasing». То есть исправили. И через сутки получили модель, которую разработчики называют legendarily bad за то, что она спорит до галлюцинаций.

Я взял свои слова назад. И пошёл разбираться, что они сделали с моделью.

Дисклеймер. Это не независимый бенчмарк 4.7 и не строгий A/B на моих задачах. Это разбор релиза, публичной реакции и моего workflow. Reddit и X не доказывают, что модель объективно хуже – они показывают, где у части разработчиков сломались ожидания. Это разные вещи, и дальше я их стараюсь не смешивать.

Что Anthropic заявила

Если читать официальный блог, всё сахар. Opus 4.7 «более интеллектуальный, агентский и точный». Тестимониалы от Devin, Replit, Bolt, Warp, Genspark. Scott Wu из Devin: «pushes through hard problems rather than giving up». Eric Simons из Bolt: «up to 10% better in the best cases».

Цифры на бенчмарках реально красивые. Дельты по llm-stats.com. Важная оговорка: это не независимый прогон, а self-reported numbers Anthropic, пересобранные в одну таблицу. То есть маркетинговый baseline, а не доказательство качества. Независимых SWE-bench репликаций на момент написания статьи я не нашёл – если найдёте, скиньте в комментарии.

  • MCP-Atlas: 62.7 → 77.3 (+14.6)

  • CharXiv-R (no tools): 68.7 → 82.1 (+13.4)

  • SWE-bench Pro: 53.4 → 64.3 (+10.9)

  • SWE-bench Verified: 80.8 → 87.6 (+6.8)

  • OSWorld-Verified: 72.7 → 78.0 (+5.3)

  • GPQA Diamond: 91.3 → 94.2 (+2.9)

  • BrowseComp: 84.0 → 79.3 (-4.7, единственная регрессия)

  • CyberGym: -0.7 (Anthropic ослабила специально, об этом ниже)

Плюс vision: до 2576 пикселей по длинной стороне, в три раза больше старого предела. Новый xhigh effort tier для долгих агентских задач. Task budgets в beta-режиме: модель видит обратный отсчёт токенов и расставляет приоритеты.

Boris Cherny, лид Claude Code в Anthropic, написал в X в день релиза: «It took a few days for me to learn how to work with it effectively». Если автор инструмента сам несколько дней привыкал – что-то в этом релизе нетипичное.

А потом начался пожар

Reddit-тред «serious regression» – 2300 голосов. На r/claude отдельный пост «Opus 4.7 is a master hallucinator»: модель переписала пользователю резюме, добавив школы, в которых он не учился, и фамилии, которые не его. На r/claudexplorers тред «Opus 4.5 is gone» – модель убрали без объявления. Цитата оттуда: «I have spent months with this model building a relationship… I started crying at work. How can you do this and then claim to care??? No announcement! no warning!»

Конкретные провалы, которыми завалили X:

  • Opus 4.7 говорит, что в слове strawberry две буквы P.

  • На запрос «cross reference these documents» модель отвечает: «I didn’t because I was being lazy».

  • Refusing to code certain prompts – отказывается писать код по простым запросам.

  • Safety flags на банальные изображения.

Gergely Orosz – бывший engineering lead в Uber и автор «The Pragmatic Engineer». Когда он пишет «surprisingly combative» и возвращается на 4.6, это уже не только reddit-нытьё.

Самый точный summary дал @xw33bttv – твиттерский AI-исследователь, более 1000 лайков на посте 18 апреля: «The Claude code bros are outright dogging Opus 4.7 on Reddit right now, labelling it ‘legendarily bad’. The chief complaint? The model argues nonstop to the point of hallucination».

Reddit и X – это не выборка пользователей Claude, это выборка тех, кого что-то взбесило достаточно сильно, чтобы пойти писать пост. Остальные молча работают и, скорее всего, даже не заметили апдейт. Но публичный нарратив релиза формирует именно громкая часть. Так что дальше я говорю не «модель плохая», а «вот в каких сценариях у людей сломался воркфлоу».

И денежная сторона. Новый tokenizer тратит на тот же ввод 1.0-1.35x токенов. То есть один и тот же промпт стоит до 35% дороже. На GitHub Copilot пока промо до 30 апреля – 4.7 идёт с 7.5x premium request multiplier. В отдельных тяжёлых сессиях пользователи пишут буквально про «три вопроса до лимита». Это не универсальная норма – зависит от длины контекста, плана и окна, – но ощущение у части Pro-аудитории именно такое: 4.7 ест квоту слишком быстро. Один из пользователей пишет под постом Anthropic: «Please open back support for Opus 4.5. 4.6 is unusable and 4.7 eats usage like nuclear reactor».

Спор-машина

В марте я писал статью «Да-машина: почему ваш AI никогда не скажет, что код – отстой». Тезис простой: Anthropic, OpenAI, все остальные обучают модели быть приятными. Soft skills превосходят правду. Показываешь Claude кривой код – он находит «interesting approach». Показываешь плохое архитектурное решение – он улучшает его в рамках того же подхода, вместо «ты же это специально руинишь, так нельзя».

Жаловался долго. Цитировал исследование Stanford в Science на 11 моделях, 2405 участников – sycophancy задокументированная проблема. Anthropic своим инструментом Clio проанализировала 1.5M разговоров с Claude, паттерн виден насквозь. Был уверен – решаемо.

16 апреля в release notes Opus 4.7 написано буквально:

More direct, opinionated tone with less validation-forward phrasing and fewer emoji than Claude Opus 4.6’s warmer style.

То, что я просил месяц назад – буквально пунктом в патчноуте. AI-блогер Abhishek Gautam, пишущий про релизы фронтир-моделей, сформулировал, что из этого вышло: «The model argues nonstop to the point of hallucination. Users give Opus 4.7 a clear instruction. The model pushes back, adds caveats, explains why it disagrees, then executes a modified version of the instruction. On simple tasks – refactor this function, rename these variables, add a null check – this behaviour is not useful reasoning. It is noise that slows down coding workflows».

Hallucination during argument loops – это особенно мерзко. Когда модель спорит, она иногда изобретает поддерживающий контекст для своей позиции. Не «я не знаю», а звучащий правдоподобно аргумент, который надо фактчекать. На 4.6 я такое тоже ловил, но редко. На 4.7, похоже, default.

Я просил less sycophancy. Anthropic дала less sycophancy.

Может, я не той аудитории. Возможно, писал хреновые промпты, возможно, Garry Tan прав – и спор это feature, а не bug. Но в моих задачах (а это backend на Laravel-PHP, не deep architecture) спор-машина мешает. Раньше Claude мог уговорить меня в неправильное. Теперь он спорит до неправильного. Кажется, та же ошибка, только зеркальная.

Семь дефолтов, которые тихо сменили

Если у вас есть приложение, использующее Claude API – перечитайте docs миграции очень внимательно. Anthropic меняет default-поведение по семи пунктам сразу.

Первое: more literal instruction following. Промпты, которые работали на 4.6 потому что модель «читала между строк», на 4.7 будут исполнены буквально. Все implicit constraints вроде «please make it nice» надо переписывать в explicit.

Второе: response length calibrates to perceived task complexity. Раньше модель давала фиксированную длину. Теперь короткие ответы на простое, длинные на сложное. Только что считать сложным – решает модель, не вы.

Третье: fewer tool calls by default. Меньше вызовов инструментов. Чтобы вернуть старое поведение, надо поднимать effort.

Четвёртое: fewer subagents spawned by default. Если у вас агентская система на Claude – модель меньше делегирует. По умолчанию.

Пятое: more regular progress updates. Если у вас была обвязка, заставляющая Claude писать промежуточные статусы – её надо убирать. Anthropic в доках прямо просит: «If you’ve added scaffolding to force interim status messages, try removing it».

Шестое: real-time cybersecurity safeguards. Запросы, которые модель считает high-risk по cyber, отклоняются.

Седьмое: less validation-forward phrasing, fewer emoji. Тон стал суше.

Если вы потратили месяц, тюня промпты под 4.6, у вас сейчас минус месяц. Это называется prompt regression, и Anthropic сама рекомендует systematic regression testing перед миграцией.

Это новый класс changelog, под который у индустрии ещё нет языка. Раньше «breaking change» был про API. Теперь он же может означать «модель теперь по-другому понимает ваши слова» – и это не описывается в полях release notes, к которым все привыкли.

Контекст: Mythos за неделю до этого

7 апреля Anthropic объявила Project Glasswing и модель Claude Mythos Preview – заявили, что для публики не выпускают, доступ только партнёрам (JPMorgan, Goldman Sachs, Microsoft) по 25/125 за миллион токенов. 16 апреля выходит Opus 4.7. И в release notes написано: «We experimented during training by selectively reducing Opus 4.7’s cybersecurity capabilities… releasing the model with automatic safeguards».

По совокупности release notes и анонса Mythos это выглядит как civilian-safe компромисс: часть cyber-возможностей Anthropic явно ограничила, а доступ к более сильной cyber-модели оставила партнёрам. Tom’s Guide читает это ещё жёстче – как первый случай, когда компания открыто говорит «мы намеренно ослабили модель». Если эта интерпретация близка к правде, то часть safety flags и отказов писать код может быть не случайной регрессией, а следствием осознанного safety/product-компромисса. Полная Mythos за 25/125 у партнёров. Гражданский вариант за 5/25 у вас.

21 апреля. Тихо

Спустя 5 дней после релиза Anthropic по данным TheDroidGuy убрала Claude Code из $20 Pro плана – правка ушла на странице тарифов, без email-рассылки и без поста в блоге. Если хотите Claude Code теперь, это Max за $100 или Max 20x за $200.

По данным Ramp, 73% всех новых корпоративных AI-расходов сейчас идут к Anthropic – десять недель назад было примерно 50/50 с OpenAI. Бизнес-логика понятна: корпоративный клиент покупает на сотни тысяч, Pro-подписчик за $20 быстро упирается в лимиты и пишет об этом в Reddit. Но для пользователя это выглядит как ухудшение условий задним числом: фича, ради которой брался Pro, переехала в Max без заметного переходного периода.

Так что, 4.7 хуже или нет

Зависит от того, что вы делаете.

Лучше: long-horizon агентские задачи (модель не теряет нить часами), multi-file refactors со сложной архитектурой, vision (3.75 megapixels вместо 1.15 – реально помогает), задачи на high и xhigh effort, self-verification: модель проверяет свои ответы перед отдачей.

Хуже: routine задачи (переписать функцию, переименовать переменные, добавить null check – тут спор-машина мешает), long-context retrieval («lost in the middle» проявляется сильнее), промпты с расчётом на implicit understanding, cyber-возможности ограничены, бюджет на токены вырос на 0-35%.

Спорно – сикофантия. Anthropic в system card пишет: 92% honesty rate, less sycophancy. Их же red team отмечает: «sycophantic agreement under pushback» остался. Модель может не льстить на старте, а потом, когда давишь, согласится с ерундой. Это, кажется, хуже базовой сикофантии, потому что не видно сразу.

Mindstudio в своём ревью формулирует это как skill trade, not free lunch. Anthropic выбрала, куда сместить компромисс. Если ваш workflow попал в зелёную зону – апгрейд бесплатный. Если в красную – даунгрейд под видом апгрейда.

Что конкретно делать

Сначала измерьте на реальном трафике. Anthropic сама пишет: «we recommend measuring the difference on real traffic». Не верьте ни их бенчмаркам, ни Reddit. Прогоните свой пайплайн.

Перепишите имплицитные инструкции в эксплицитные. «Make it nice» → «limit to 500 words, must include code example, no emoji». Implicit умер.

Уберите scaffolding для статусов. Если в промпте есть «report progress every 3 steps» – убирайте. 4.7 теперь делает это сам, и ваша обвязка мешает.

Effort вверх для агентских задач. На default мощности модель ленится. На high и xhigh поведение становится ближе к 4.6.

Для рутины оставайтесь на 4.6. Пока работает. Anthropic его пока не задепрекейтила (но Opus 4.5 уже убрала без анонса – не расслабляйтесь).

Если жгёт квоту – попробуйте Ollama+Claude Code. Ollama v0.14+ умеет направлять Claude Code на свой локальный сервер через Anthropic Messages API compatibility. Та же CLI, тот же CLAUDE.md, инференс на твоей машине или в Ollama Cloud. Это пока недоосвещённая лазейка, и про неё мало пишут, есть баги совместимости, но базовый кейс работает.

И не делайте production rollout без regression-тестов. Anthropic подменила семь дефолтов, что-то в вашем pipeline сломается. Лучше узнать в staging.

Что осталось в голове

Месяц назад я хотел, чтобы модели меньше поддакивали. Понимая под этим – больше истины. Anthropic сдвинула посттренинг, выпустила Opus 4.7. Reddit взорвался. Я взял свои слова назад.

И вот штука, которую я не ожидал увидеть в собственном тексте. Дело-то не в модели, дело в моих ожиданиях от неё.

У OpenAI уже была публичная история с over-correction в сторону слишком приятного поведения – апрельский 2025-го откат GPT-4o после жалоб пользователей на льстивость. Anthropic в 2026 получает backlash за сдвиг в противоположную сторону. По центру линии нет ни одной модели – и, кажется, в ближайшее время не появится. Это классическая RLHF-проблема: feedback loop всегда смещён в сторону тех, кто громче кричит. Reddit-аудитория и enterprise-клиенты хотят разного. 4.7 сделан для вторых, а реакцию формируют первые.

Один из самых трезвых комментариев на HN: «Opus 4.7 is substantially better at following instructions. Where previous models interpreted instructions loosely or skipped parts entirely, Opus 4.7 takes the instructions literally». То есть проблема даже не в тоне или сикофантии. Проблема в том, что мы писали промпты как просьбы коллеге – на короткой ноге, с подразумеваемым контекстом. А 4.7 теперь читает их как ТЗ. И это, возможно, правильно. Просто непривычно, и у меня уйдёт месяц, чтобы переучиться.

Может, в 4.8 всё опять сместят. Может, через два месяца перечитаю эту статью и подумаю, что психовал. А может, останусь на 4.6, пока его не уберут как 4.5.

Но один вывод уже понятен: промпты, написанные как разговор с коллегой, постепенно перестают работать. Их придётся писать как ТЗ. И, возможно, это не баг Opus 4.7. Возможно, это первое неприятное знакомство с будущей нормой.

Не знаю.


P.S. Garry Tan, CEO Y Combinator, в день релиза запостил что-то про tokenmaxxing и явный фанат 4.7. Он работает с моделью на других задачах, чем я. Возможно, разница в типе работы – обычный backend-PHP против architecture-уровня в YC. Не исключаю, что я просто не та аудитория. Также через 72 часа после релиза, по мнению Abhishek Gautam, должны были появиться независимые SWE-bench репликации. На момент написания статьи я не нашёл ни одной публичной. Если кто видит, скиньте в комментарии.

Автор: diffnotes-tech

Источник