- BrainTools - https://www.braintools.ru -
Компания Anthropic обвиняет [1] три китайские компании, занимающиеся разработкой ИИ, в создании более 24 тысяч фейковых аккаунтов с использованием модели Claude AI для улучшения собственных моделей.

По данным разработчика, DeepSeek, Moonshot AI и MiniMax, предположительно, совершили более 16 млн взаимодействий с Claude через эти аккаунты, используя метод, называемый «дистилляцией». Anthropic заявила, что лаборатории «нацелились на наиболее отличительные возможности Claude: агентное мышление [2], использование инструментов и программирование».
Дистилляция — это распространённый метод обучения [3], который лаборатории ИИ используют на своих собственных моделях для создания меньших и более дешёвых версий, но конкуренты могут применять его для того, чтобы, по сути, копировать работу других лабораторий. Ранее в этом месяце OpenAI тоже обвинила [4] DeepSeek в использовании дистилляции для имитации своей продукции.
Ожидается, что DeepSeek вскоре выпустит DeepSeek V4, свою последнюю модель, которая, как сообщается, превосходит Claude от Anthropic и ChatGPT от OpenAI по производительности в программировании.
Anthropic же отследила более 150 тысяч обменов данными от DeepSeek, которые, по-видимому, были направлены на улучшение базовой логики и согласованности, в частности, при создании безопасных с точки зрения [5] цензуры альтернатив запросам, чувствительным к политике безопасности.
Moonshot AI провела более 3,4 млн обменов данными, направленных на агентное логическое мышление [6] и использование инструментов, программирование и анализ данных, разработку компьютерных агентов и компьютерное зрение. В прошлом месяце компания выпустила новую модель с открытым исходным кодом Kimi K2.5 и агента для программирования.
MiniMax же провела 13 млн обменов данными, направленных на агентное программирование, использование инструментов и оркестрацию. Anthropic заявила, что смогла наблюдать за работой MiniMax, которая перенаправляла почти половину трафика на перехват возможностей новейшей модели Claude после её запуска.
Anthropic продолжит инвестировать в средства защиты, которые затруднят выполнение и облегчат выявление атак методом перехвата данных, но призывает к «скоординированному ответу со стороны всей индустрии ИИ, поставщиков облачных услуг и политиков».
Атаки методом перехвата данных происходят в то время, когда экспорт американских чипов в Китай всё ещё является предметом дебатов. В прошлом месяце администрация Дональда Трампа официально разрешила американским компаниям, таким как Nvidia, экспортировать в Китай передовые чипы для ИИ. Anthropic заявляет, что масштабы извлечения данных, выполненные DeepSeek, MiniMax и Moonshot, «требуют доступа к передовым чипам».
«Таким образом, атаки с использованием дистилляции подтверждают необходимость экспортного контроля: ограниченный доступ к чипам ограничивает как прямое обучение моделей, так и масштабы незаконной дистилляции», — говорится в блоге компании.
Дмитрий Альперович, председатель аналитического центра Silverado Policy Accelerator и соучредитель CrowdStrike, заявил [7] TechCrunch, что его не удивляют эти атаки.
«Уже давно ясно, что одной из причин быстрого прогресса китайских моделей ИИ является кража путем дистилляции американских моделей, находящихся на стадии разработки. Теперь мы знаем это наверняка. Это должно дать нам ещё более веские основания отказаться от продажи любых чипов ИИ этим компаниям, поскольку она только ещё больше укрепит их позиции», — сказал он.
Anthropic также заявила, что дистилляция не только угрожает подорвать доминирование США в области ИИ, но и может создать риски для национальной безопасности.
«Компания Anthropic и другие американские компании создают системы, которые предотвращают использование ИИ государственными и негосударственными субъектами, например, для разработки биологического оружия или осуществления вредоносных кибератак. Модели, созданные путем незаконной дистилляции, вряд ли сохранят эти меры защиты, а это значит, что опасные возможности могут распространяться, при этом многие средства защиты будут полностью удалены», — говорится в сообщении разработчика.
Anthropic указала на то, что авторитарные правительства используют передовые методы ИИ для таких целей, как «наступательные кибероперации, кампании по дезинформации и массовое наблюдение». По мнению разработчиков, риск многократно возрастает, если эти модели имеют открытый исходный код.
Автор: maybe_elf
Источник [8]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26106
URLs in this post:
[1] обвиняет: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
[2] мышление: http://www.braintools.ru/thinking
[3] обучения: http://www.braintools.ru/article/5125
[4] обвинила: https://habr.com/ru/news/996096/
[5] зрения: http://www.braintools.ru/article/6238
[6] логическое мышление: http://www.braintools.ru/thinking/typology/logical-thinking
[7] заявил: https://techcrunch.com/2026/02/23/anthropic-accuses-chinese-ai-labs-of-mining-claude-as-us-debates-ai-chip-exports/
[8] Источник: https://habr.com/ru/news/1002890/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1002890
Нажмите здесь для печати.