OpenAI, Anthropic и Google скоординировались против DeepSeek и других китайских лабораторий. anthropic.. anthropic. google.. anthropic. google. openai.. anthropic. google. openai. искусственный интеллект.. anthropic. google. openai. искусственный интеллект. Машинное обучение.
OpenAI, Anthropic и Google скоординировались против DeepSeek и других китайских лабораторий - 1

Три главных конкурента американского ИИ-рынка — OpenAI, Anthropic и Google — впервые начали официально обмениваться данными для борьбы с китайскими лабораториями, которые вытаскивают возможности из их моделей через атаки извлечения. Об этом 6 апреля сообщил Bloomberg со ссылкой на источники, знакомые с ситуацией. Издание называет это “редким сотрудничеством”, подчеркивающим серьезность угрозы.

Каналом координации стал Frontier Model Forum — некоммерческая организация, которую эти же три компании вместе с Microsoft основали еще в июле 2023 года. Изначально форум позиционировался как площадка для исследований безопасности ИИ и обмена практиками с регуляторами. Теперь через него идет обмен данными о так называемой враждебной дистилляции (adversarial distillation) — техники, при которой атакующий шлет большой поток специально подобранных запросов в модель-донор, собирает ответы и использует их для обучения собственной модели. Сама по себе дистилляция — легитимная практика, компании регулярно дистиллируют свои модели в более легкие версии для клиентов. Граница проходит по нарушению пользовательского соглашения.

Это качественный сдвиг по сравнению с тем, что было в феврале. Тогда каждая из трех компаний действовала сама: OpenAI отправила меморандум в комитет Палаты представителей по Китаю с жалобой на DeepSeek; Anthropic выпустила пост, где обвинила DeepSeek, MiniMax и Moonshot в координированных кампаниях; Google пожаловалась на массовые попытки извлечь из Gemini сведения для кодинга и сбора учетных данных. По данным Anthropic, три китайские лаборатории совокупно сгенерировали более 16 миллионов запросов к Claude через примерно 24 000 фейковых аккаунтов, которые работали через коммерческие прокси-сервисы (Claude в Китае официально недоступен). Самая крупная кампания приписывается MiniMax — более 13 миллионов взаимодействий, у Moonshot насчитали 3,4 миллиона, у DeepSeek около 150 тысяч.

Не все воспринимают эти обвинения однозначно. Эрик Камбрия, профессор искусственного интеллекта из Наньянгского технологического университета в Сингапуре, в комментарии CNBC отметил, что “граница между легитимным использованием и враждебной эксплуатацией часто размыта”. Лиа Ракель Невес, основательница консалтинга по этике ИИ, сказала, что обвинения скорее не про злоупотребления в индустрии, а про нарушения пользовательского соглашения. Критики добавляют, что Anthropic и сама в свое время использовала публичные данные для обучения моделей и применяет дистилляцию в собственных продуктах — а значит, моральная позиция “нас обворовывают” выглядит избирательной.

Параллельно тема перетекла в политическую плоскость. Институт IAPS в марте опубликовал меморандум с рекомендациями внести китайские лаборатории, замешанные в дистилляции, в Entity List Бюро промышленности и безопасности США, рассмотреть санкции по PAIP Act и поручить NIST разработку фреймворка защиты от подобных атак. Прецедент уже есть: первые санкции по PAIP Act применили 24 февраля. Аналитики CSET в феврале нашли более 9 000 запросов на тендеры от Народно-освободительной армии Китая за 2023–2024 годы, в которых китайские военные ищут способы применить ИИ в своих операциях, в том числе модели DeepSeek. Это объясняет, почему американские компании так настойчиво выводят техническую жалобу на государственный уровень.

P.S. Поддержать меня можно подпиской на канал “сбежавшая нейросеть“, где я рассказываю про ИИ с творческой стороны.

Автор: runaway_llm

Источник