- BrainTools - https://www.braintools.ru -

Три главных конкурента американского ИИ-рынка — OpenAI, Anthropic и Google — впервые начали официально обмениваться данными для борьбы с китайскими лабораториями, которые вытаскивают возможности из их моделей через атаки извлечения. Об этом 6 апреля сообщил Bloomberg [1] со ссылкой на источники, знакомые с ситуацией. Издание называет это “редким сотрудничеством”, подчеркивающим серьезность угрозы.
Каналом координации стал Frontier Model Forum — некоммерческая организация, которую эти же три компании вместе с Microsoft основали еще в июле 2023 года. Изначально форум позиционировался как площадка для исследований безопасности ИИ и обмена практиками с регуляторами. Теперь через него идет обмен данными о так называемой враждебной дистилляции (adversarial distillation) — техники, при которой атакующий шлет большой поток специально подобранных запросов в модель-донор, собирает ответы и использует их для обучения [2] собственной модели. Сама по себе дистилляция — легитимная практика, компании регулярно дистиллируют свои модели в более легкие версии для клиентов. Граница проходит по нарушению пользовательского соглашения.
Это качественный сдвиг по сравнению с тем, что было в феврале. Тогда каждая из трех компаний действовала сама: OpenAI отправила меморандум в комитет Палаты представителей по Китаю с жалобой на DeepSeek; Anthropic выпустила пост, где обвинила DeepSeek, MiniMax и Moonshot в координированных кампаниях; Google пожаловалась на массовые попытки извлечь из Gemini сведения для кодинга и сбора учетных данных. По данным Anthropic, три китайские лаборатории совокупно сгенерировали более 16 миллионов запросов к Claude через примерно 24 000 фейковых аккаунтов, которые работали через коммерческие прокси-сервисы (Claude в Китае официально недоступен). Самая крупная кампания приписывается MiniMax — более 13 миллионов взаимодействий, у Moonshot насчитали 3,4 миллиона, у DeepSeek около 150 тысяч.
Не все воспринимают эти обвинения однозначно. Эрик Камбрия, профессор искусственного интеллекта [3] из Наньянгского технологического университета в Сингапуре, в комментарии CNBC отметил, что “граница между легитимным использованием и враждебной эксплуатацией часто размыта”. Лиа Ракель Невес, основательница консалтинга по этике ИИ, сказала, что обвинения скорее не про злоупотребления в индустрии, а про нарушения пользовательского соглашения. Критики добавляют, что Anthropic и сама в свое время использовала публичные данные для обучения моделей и применяет дистилляцию в собственных продуктах — а значит, моральная позиция “нас обворовывают” выглядит избирательной.
Параллельно тема перетекла в политическую плоскость. Институт IAPS в марте опубликовал меморандум с рекомендациями внести китайские лаборатории, замешанные в дистилляции, в Entity List Бюро промышленности и безопасности США, рассмотреть санкции по PAIP Act и поручить NIST разработку фреймворка защиты от подобных атак. Прецедент уже есть: первые санкции по PAIP Act применили 24 февраля. Аналитики CSET в феврале нашли более 9 000 запросов на тендеры от Народно-освободительной армии Китая за 2023–2024 годы, в которых китайские военные ищут способы применить ИИ в своих операциях, в том числе модели DeepSeek. Это объясняет, почему американские компании так настойчиво выводят техническую жалобу на государственный уровень.
P.S. Поддержать меня можно подпиской на канал “сбежавшая нейросеть [4]“, где я рассказываю про ИИ с творческой стороны.
Автор: runaway_llm
Источник [5]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/28370
URLs in this post:
[1] Bloomberg: https://www.bloomberg.com/news/articles/2026-04-06/openai-anthropic-google-unite-to-combat-model-copying-in-china
[2] обучения: http://www.braintools.ru/article/5125
[3] интеллекта: http://www.braintools.ru/article/7605
[4] сбежавшая нейросеть: https://escaped-ai.ru/tg/
[5] Источник: https://habr.com/ru/news/1020164/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1020164
Нажмите здесь для печати.