- BrainTools - https://www.braintools.ru -

Чуть больше недели назад Anthropic представила миру свою модель Claude Mythos — и, надо сказать, у публики на этом месте буквально сорвало крышу. И понять почему нетрудно.
Mythos — это, по сути, кибербезопасностный бот: он умеет просматривать код, находить уязвимости и даже подбирать к ним эксплойты. Всего за несколько недель, как утверждают в Anthropic, Mythos обнаружил тысячи zero-day-уязвимостей во всех основных операционных системах и браузерах.
Разумеется, в самой Anthropic настолько обеспокоены последствиями возможного публичного доступа к такой модели — а также тем, что другие компании могут создать не менее опасные системы, — что пока запускают её лишь в формате preview-доступа: для исследователей, государственных структур и крупнейших разработчиков ПО, чтобы те успели подготовиться к надвигающейся волне кибератак, которую, по их словам, спровоцируют такие модели.
Но, будем откровенны, как и многие AI-бро, Anthropic давно заслужила репутацию компании, в которой маркетингового тумана зачастую больше, чем реальных шагов. Так что стоит спросить прямо: перед нами действительно та самая ИИ-армада, о которой нас предупреждали? Или это просто очередной рекламный спектакль?
Надо признать: момент, в который состоялся запуск Mythos, выглядит настолько удачно-случайным, что невольно вызывает серьёзные подозрения.
Всего несколько недель назад главный продукт компании — Claude Code — публично полоскали на всех углах. Директор AMD раскритиковал этот кодовый ассистент [1]за то, что тот поглупел и обленился: он уже не справляется с задачами, в которых раньше чувствовал себя уверенно. Это можно объяснить и недавней внутренней запиской OpenAI, где говорится, что Anthropic упёрлась в нехватку вычислительных ресурсов [2], и сообщениями о том, что Claude регулярно переживает сбои, бьющие по качеству сервиса [3]. Проще говоря, возможно, что Anthropic действительно пришлось «упростить» Claude, чтобы выдержать наплыв бывших пользователей OpenAI [4].
А потом случилось ещё и вот что: из-за того, что значительная часть обвязки Claude, по сути, была наскорую руку «навайб-кожена», исходный код утёк — и весь мир получил возможность заглянуть внутрь [5]. Ирония, конечно, впечатляющая: компания, существование которой, по сути, невозможно без присвоения огромных массивов чужих защищённых авторским правом материалов — уступая в этом разве что OpenAI, — внезапно заявила, что утекший код является её интеллектуальной собственностью, и отправила порядка 8 000 жалоб по copyright, чтобы зачистить публикации.
С точки зрения [6] этики, кибербезопасности и просто компетентности выглядит это, мягко говоря, не лучшим образом. Особенно если помнить, что к концу года компания собирается выходить на IPO [7].
И вот на этом фоне Anthropic вдруг заявляет, что создала невообразимо мощный ИИ, настолько опасный, что нам его нельзя даже толком попробовать — не говоря уже о том, чтобы независимо проверить заявленные возможности. Совпадение, конечно, удивительное.
Почти как если бы это был идеальный маркетинговый инструмент, чтобы утопить в шуме все проблемы и прессу, которая обрушилась на Anthropic за последний месяц.
Это, разумеется, не доказывает, что Mythos — исключительно липа. Но, по меньшей мере, говорит о том, что здесь необходима здоровая доза скепсиса.
И важно помнить: к скепсису призывают не только интернет-чудаки вроде меня. Сомнения в истории вокруг Mythos высказали влиятельные исследователи ИИ, отраслевые эксперты и даже инвесторы из Big Tech.
Нейробиолог и исследователь ИИ Гэри Маркус [8] заявил, что риски Mythos раздуты, и добавил: «В некотором смысле у меня есть ощущение, что нас просто разыграли».
Янн Лекун [8], один из так называемых «крёстных отцов ИИ», вообще отмахнулся от Mythos, назвав всё это «чушью, порождённой самообманом», и отметил, что другие, более компактные модели уже умеют выполнять те же задачи.
Доктор Хайди Хлааф [9], главный научный [10] сотрудник AI Now Institute, сказала, что заявление о Mythos построено на слишком расплывчатом языке и не содержит тех метрик, которые нужны для проверки заявлений Anthropic. Это заставило её усомниться, не было ли всё это задумано прежде всего для привлечения инвестиций — без излишнего контроля и неудобных вопросов.
Дэвид Сакс [8], возможно, один из самых одиозных представителей PayPal-мафии — а на мой взгляд, просто законченный кретин, но что куда важнее для нашего разговора, ещё и инвестор Big Tech, — заявил, что у Anthropic уже есть история использования «тактики запугивания» для разогрева хайпа, а значит, к их словам следует относиться с большой осторожностью.
Когда даже такие люди начинают предупреждать, что технологические заявления звучат чересчур раздутыми, это уже само по себе тревожный сигнал.
Иными словами, перед нами хор осведомлённых людей — с очень разными политическими и этическими взглядами, — которые в один голос говорят: с Mythos, возможно, всё не так, как кажется.
Нельзя не упомянуть и то, что независимый анализ эту точку зрения скорее поддержал. AISI [11]— одна из организаций, получивших доступ к превью-версии Mythos и протестировавших её возможности. Да, они признали, что в части моделирования кибератак это шаг вперёд. Но одновременно подчеркнули: это не такой уж гигантский скачок, как пытается представить Anthropic.
И, наконец, в официальной истории Anthropic зияет одна особенно заметная дыра.
Если Mythos настолько выдающийся, почему его не использовали, чтобы предотвратить утечку Claude?
Казалось бы, если ваша компания вот-вот собирается стать чуть ли не главным экспертом по поиску уязвимостей в программном обеспечении, а впереди, как вам кажется, надвигается цунами ИИ-кибератак, то первое, что вы должны сделать, — это применить собственный кибербезопасностный ИИ, чтобы как следует залатать все дыры в своих же системах.
Странно выглядит ситуация, в которой у Anthropic якобы есть модель уровня Mythos — и одновременно происходит столь крупная утечка. Тут возможны разные объяснения:
либо Mythos не умеет того, что ей приписывают;
либо сам Claude настолько хаотично «навайб-кожен», что его баги и уязвимости почти невозможно нормально исправить;
либо Anthropic попросту не доверяет Mythos настолько, чтобы подпустить его к Claude, опасаясь, что тот всё окончательно сломает.
Какой бы ни была правда, эта несостыковка выглядит очень нехорошо.
Итак: скепсис необходим. Хорошо. Но какие именно вопросы следует задавать?
Я не специалист по ИИ. Я всего лишь смертельно выгоревший аутичный мужик с доступом в интернет. Поэтому «правильного» ответа я вам не дам. Но могу, по крайней мере, перечислить вопросы, которые задаю сам, пытаясь понять, что здесь происходит. Возможно, они пригодятся и вам как отправная точка.
То, что Mythos заявляет о тысячах обнаруженных zero-day-уязвимостей, ещё не означает, что речь действительно идёт о взламываемых, эксплуатируемых рисках.
Например, Дэниел Стенберг, основатель и ведущий разработчик cURL, сказал The Register [12], что подобные инструменты нередко ошибочно помечают неэксплуатируемые баги как уязвимости, тем самым создавая для команд дополнительное давление и море информационного мусора.
Anthropic, конечно, утверждает, что Mythos Preview в 72,4% случаев [12] умеет находить рабочие эксплойты. Но это вполне может оказаться просто рекламным блеском. В конце концов, само понятие «эксплуатируемости» — вещь подвижная.
Нам нужно убедиться, что Mythos не просто швыряет макароны в стену в надежде, что что-нибудь прилипнет, а действительно способна выявлять реальные риски в реальном коде.
Когда организации, уже получившие доступ к Mythos Preview, выйдут за пределы лабораторных бенчмарков — под которые ИИ, как известно, очень легко подгоняется, — и перейдут к полевому тестированию, тогда, вероятно, мы и получим ответ.
По целому ряду причин — например, из-за гипотезы Флориди [13]и границы эффективности вычислений [14] — создавать универсальные модели, которые были бы существенно лучше нынешних, становится всё труднее. Следовательно, Anthropic почти наверняка пришлось сильно сузить специализацию Mythos, превратив её из универсального чат-бота вроде Claude или ChatGPT в специализированный кибербезопасностный инструмент.
То, что Anthropic сейчас ограничена вычислительными ресурсами, — ещё один косвенный аргумент в пользу того, что Mythos, скорее всего, очень узкая модель.
И здесь возникает вопрос: насколько именно пришлось сузить её область применения, чтобы она стала эффективной в этой задаче?
Это важно по двум причинам.
Во-первых, сверхузкая модель банально хуже коммерциализируется: она умеет делать одну вещь и только одну.
Во-вторых, если Anthropic действительно пришлось столь радикально специализировать Mythos, значит, компания осознанно создала инструмент, потенциально способный открыть дорогу кибератакам в масштабах, которых мы прежде не видели.
А это уже плохо сочетается с образом «этической компании», который Anthropic так любит продвигать. Более того, это отличный пример того, почему этот рынок нуждается в регулировании. Если бы любая другая индустрия начала целенаправленно производить машины, способные обрушить цифровую инфраструктуру, на которой держится всё наше общество, её бы зарегулировали в пыль.
Если для нормальной работы Mythos нужны нечеловеческие объёмы вычислений и энергии, тогда эта модель не может быть тем массовым риском, о котором говорит Anthropic; не может быть по-настоящему жизнеспособным коммерческим продуктом; и, строго говоря, может оказаться даже шагом назад для всей ИИ-индустрии.
Мы уже знаем, что Mythos очень дорога в эксплуатации: в документации самой Anthropic прямо сказано, что она «очень дорога для нас в обслуживании и будет очень дорога для наших клиентов [15]». Но насколько дорога?
У Anthropic недостаточно глубокие карманы, чтобы долго субсидировать такой инструмент. А учитывая, что инвесторы всё сильнее нервничают из-за возможного ИИ-пузыря, в ближайшее время вряд ли что-то изменится.
Кроме того, если модель чудовищно дорога в запуске, то при подсчёте стоимости одной найденной уязвимости в долларах она может оказаться попросту бесполезной для бизнеса.
Есть и ещё один момент: высокая цена автоматически ограничивает масштаб использования Mythos и удерживает сервис подальше от более зловредных пользователей.
И это, кстати, большая проблема всех современных ИИ-систем. Чтобы сделать их хотя бы немного лучше, чем сейчас, требуется больше вычислений, а значит — и экспоненциально больше затрат. В результате стоимость таких инструментов начинает выходить за пределы разумной полезности.
Одно дело — обнаружить уязвимость. Совсем другое — исправить её.
Тот же Дэниел Стенберг, которого я уже цитировал, сказал The Register [12], что инструменты наподобие Mythos, когда сообщают об уязвимостях, не предлагают решений.
Можно, конечно, предположить, что Anthropic просто объединит Mythos с Claude Code, и тот начнёт на ходу «вайб-чинить» найденные дыры. Но, увы, это вряд ли сработает.
ИИ-инструменты для программирования действительно неплохо генерируют небольшие фрагменты кода. Но при этом они ужасно понимают программы как целое и ещё хуже справляются с самостоятельной реализацией задач. В одной из предыдущих статей я разбирал исследование Университета Ватерлоо [16], показавшее, что даже лучшие генеративные ИИ-кодеры достигают лишь 75% точности на очень простых задачах программирования. Иными словами, даже базовый код, написанный ИИ, в каждом четвёртом случае просто не работает.
Я также анализировал исследование Veracode [17], где выяснилось, что 45% кода, сгенерированного ИИ, содержат уязвимости, а также работу Coderabbit [18], согласно которой в ИИ-коде на 70% больше багов, чем в коде, написанном человеком.
Так что нет, Claude Code, вероятнее всего, не сможет объединиться с Mythos и превратиться в полностью автоматическое решение для кибербезопасности «под ключ».
И это уже серьёзная проблема. По сути, получается, что Anthropic просто обманула нас? Если их заявления о Mythos хотя бы наполовину правдивы, а ИИ-кодинг не способен устранять найденные проблемы, то вся индустрия разработки ПО — и без того работающая на пределе — получит на шею экспоненциально растущий объём работы, потому что команды будут вынуждены в срочном порядке исправлять тысячи новых уязвимостей.
И это, прямо скажем, тоже не очень-то похоже на этичное поведение [19], правда, Anthropic?
Возможно, здесь предпочтительнее выглядело бы отраслевое регулирование. Но нет — вы ведь так отчаянно хотите быть «этичными» олигархами…
Все эти технобро уверены, что играют в четырёхмерные шахматы, хотя на деле перекатывают стеклянные шарики по столу. Их «гениальные стратегии» обычно не так уж сложно разглядеть насквозь. И это, кстати, не баг, а фича: именно такая прозрачность нередко позволяет им подавать сигналы потенциальным инвесторам.
Так чего же Anthropic в действительности хочет добиться с помощью Mythos? Какой сюжет она пытается исподволь навязать?
Мне кажется, здесь вполне может быть странная смесь рэкета под видом защиты и троянского коня. Объясню.
В то время как вся индустрия в целом — а особенно критически важный сектор open source — и без того работает на износ, Mythos, если верить заявлениям, начнёт буквально заваливать разработчиков отчётами, ставя команды под колоссальное давление. И что им тогда делать?
Ну, очевидно, им предложат обратиться к ИИ-инструментам для кодинга вроде Claude Code — тем более что с Mythos он, вероятно, будет работать лучше, чем сторонние решения, — чтобы ускорить выпуск патчей. Но, как мы уже знаем, эти инструменты сами плодят кучу багов, так что никакого настоящего решения тут нет.
Следовательно, отчёты от Mythos будут продолжать сыпаться, а Claude Code — переписывать всё больше и больше кода. И в какой-то момент, если этот цикл повторится достаточно много раз, значительная часть программного обеспечения окажется написанной ИИ — настолько, что человеку будет уже почти невозможно нормально переписать её вручную. А это фактически вынудит разработчиков пользоваться генеративными ИИ-инструментами, чтобы просто поддерживать свои продукты в рабочем состоянии.
Мне кажется, именно такой сюжет Anthropic и пытается продать: разработчики будут платить неприлично дорого за Mythos ради усиления своей кибербезопасности, но лавина отчётов одновременно подтолкнёт их к использованию генеративных ИИ-кодеров — и в итоге вся индустрия разработки программного обеспечения окажется глубоко зависимой от этих инструментов.
Теперь уточню: я не думаю, что именно так всё и произойдёт на практике. Как я уже говорил, ни Mythos, ни Claude Code пока недостаточно хороши, чтобы провернуть подобное. Но мы живём внутри ИИ-пузыря, а значит, реальность вторична. Важно не то, что есть на самом деле, а то, что инвесторы поверят, будто вы движетесь к монопольному господству.
И потому название Mythos кажется здесь особенно удачным. Похоже, оно продаёт не столько продукт, сколько миф о будущем доминировании ИИ — аккурат перед тем, как Anthropic выйдет на биржу.
Разумеется, всё это только гипотеза. Я не знаю наверняка, таковы ли намерения Anthropic. Я всего лишь пытаюсь читать между строк.
Пока Anthropic не выпустит Mythos в более широкий доступ, мы, скорее всего, не получим внятных ответов ни на один из этих вопросов — и так и не узнаем, что это: реальный прорыв или гигантский PR-трюк.
Пока что нам остаётся лишь жить с пониманием, что мы попросту не знаем, какая доля во всей этой истории приходится на маркетинговую чушь, а какая — на подлинный риск.
Но одно я знаю точно: в отношении Anthropic нам в любом случае стоит сохранять здоровый скепсис.
Автор: Spectrumm
Источник [20]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/29373
URLs in this post:
[1] Директор AMD раскритиковал этот кодовый ассистент : https://www.theregister.com/2026/04/06/anthropic_claude_code_dumber_lazier_amd_ai_director/
[2] что Anthropic упёрлась в нехватку вычислительных ресурсов: https://qz.com/openai-investor-memo-compute-advantage-anthropic-041026
[3] Claude регулярно переживает сбои, бьющие по качеству сервиса: https://www.theregister.com/2026/04/13/claude_outage_quality_complaints/
[4] наплыв бывших пользователей OpenAI: https://www.theregister.com/2026/03/19/anthropic_claude_market_share/
[5] исходный код утёк — и весь мир получил возможность заглянуть внутрь: https://www.wsj.com/tech/ai/anthropic-races-to-contain-leak-of-code-behind-claude-ai-agent-4bc5acc7
[6] зрения: http://www.braintools.ru/article/6238
[7] Особенно если помнить, что к концу года компания собирается выходить на IPO: https://seekingalpha.com/article/4887778-anthropic-ipo-what-you-need-to-know
[8] Гэри Маркус: https://www.businessinsider.com/anthropic-mythos-cybersecurity-concerns-what-smart-people-are-saying-ai-2026-4#ben-seri-8
[9] Хайди Хлааф: https://www.channel4.com/news/concerns-about-mythos-lie-in-its-purposely-vague-language-ai-expert
[10] научный: http://www.braintools.ru/article/7634
[11] AISI : https://www.aisi.gov.uk/blog/our-evaluation-of-claude-mythos-previews-cyber-capabilities?fbclid=IwdGRleARKvvNleHRuA2FlbQIxMQBzcnRjBmFwcF9pZAo2NjI4NTY4Mzc5AAEeD1MXdbsM_7PUtpUM50YoEVqt_yOHhormVlEJq2jLrzNKOIPyVqUFu5hpu0I_aem_PjZEOTlmu0vywgCej6A6mw
[12] The Register: https://www.theregister.com/2026/04/10/project_glasswing/
[13] Флориди : https://www.planetearthandbeyond.co/p/this-could-kill-tesla
[14] границы эффективности вычислений: https://www.planetearthandbeyond.co/p/has-openai-created-a-superintelligent
[15] очень дорога для нас в обслуживании и будет очень дорога для наших клиентов: https://wavespeed.ai/blog/posts/claude-mythos-api-pricing/
[16] Университета Ватерлоо: https://uwaterloo.ca/news/media/top-ai-coding-tools-make-mistakes-one-four-times
[17] Veracode: https://www.techradar.com/pro/nearly-half-of-all-code-generated-by-ai-found-to-contain-security-flaws-even-big-llms-affected
[18] Coderabbit: https://www.coderabbit.ai/blog/state-of-ai-vs-human-code-generation-report
[19] поведение: http://www.braintools.ru/article/9372
[20] Источник: https://habr.com/ru/companies/bothub/articles/1027838/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1027838
Нажмите здесь для печати.