Исследователи Центрального университета нашли новый способ защиты прав на модели компьютерного зрения. Разработанный метод позволяет блокировать нелегальное использование моделей компьютерного зрения и идентифицировать их без переобучения и дополнительных вычислений. По мнению специалистов университета, это может решить проблему пиратства и защиты авторских прав в эпоху искусственного интеллекта.

Группа исследователей из Научной лаборатории ИИ, анализа данных и моделирования имени профессора А. Н. Горбаня разработала способ защиты моделей компьютерного зрения от несанкционированного использования. Лаборатория создана на базе Центрального университета. Метод позволяет подтвердить авторские права на модель. Он также делает её неработоспособной без специального ключа. Решение может стать важным шагом в коммерциализации моделей компьютерного зрения. Особенно это актуально в сегментах мобильных приложений и финтехе.
Результаты исследования были представлены на Международной конференции ICCV 2025. Эта конференция по компьютерному зрению имеет уровень А*. Мероприятие проходило на Гавайях в США с 19 по 23 октября 2025 года.
Компании всё чаще разрабатывают собственные модели компьютерного зрения для внедрения в продукты. Такие модели используются в смартфонах и бытовой технике. Как только модель устанавливается на устройство, её можно скопировать для последующей перепродажи или использования в конкурирующем решении. В отличие от программного обеспечения, нейросети для анализа изображений сложно защитить. Модели представляют собой набор чисел, которые можно легко воспроизвести.
На момент написания материала для защиты моделей компьютерного зрения используют два подхода. Первый подход — водяные знаки для доказательства авторства. Второй — ключи для обеспечения работоспособности. Оба метода требуют интеграции ещё на этапе обучения. Это дорого и времязатратно. Такие методы не подходят для готовых моделей.
Исследователи Центрального университета с соавторами предложили заменить всего один нейрон в уже обученной модели компьютерного зрения на нейрон-детектор. Это элемент, который не реагирует на обычные изображения. Он активизируется, если на картинке есть специальный раздражитель. Таким секретным ключом может быть небольшой узор размером 4 × 4 пикселя. Срабатывание нейрона-детектора подтверждает авторство модели.
Если в обученную нейросеть для анализа изображений добавить по этому же принципу нейроны-нарушители, модель будет работать штатно только при наличии ключа. Без него нейроны намеренно вносят помехи и препятствуют работе модели. Метод похож на лицензионный ключ, уникальный для каждого пользователя. Но он уже заранее заложен в ядро нейросети. То есть не требует генерации на этапе обучения. Это изобретение поможет решить проблему пиратства и масштабировать защитные механизмы для моделей компьютерного зрения.
Авторы доказали математическую гарантию метода. При встроенном нейроне-детекторе вероятность его случайной активизации ничтожно мала. Например, при выборке из 10 тысяч зображений вероятность ложного срабатывания менее 0,01 процента. Математическая обоснованность позволяет использовать метод в промышленных масштабах и регулируемых отраслях.
Метод не требует переобучения модели. Интеграция нейронов происходит однократно в уже готовой сети. Такой механизм не требует дополнительного обучения модели и вычислений. Раньше защитить модель компьютерного зрения без участия в её обучении было невозможно.
Разработка подходит для любых моделей компьютерного зрения. Это делает её пригодной для массового распространения и последующей сертификации продуктов. Такая адаптивность даёт возможность использовать механизм в чувствительных отраслях, например, медицина и финтех.
Разработчики отметили, что в будущем их метод смогут применять не только к моделям компьютерного зрения, но и к большим языковым моделям и системам принятия решений.
По словам старшего научного сотрудника лаборатории ИИ, анализа данных и моделирования имени А. Н. Горбаня в Центральном университете Глеба Рыжакова, модели искусственного интеллекта представляют собой результат масштабных инвестиций, как финансовых, так и интеллектуальных.
Однако защитить модели компьютерного зрения от кражи и несанкционированного присвоения крайне сложно. Существующие методы требуют интеграции защитных механизмов на этапе обучения. Это делает их сложными в реализации на практике. Эти методы почти неприменимы для уже готовых моделей.
Исследовательская лаборатория Центрального университета разработала решение, позволяющее встроить защиту в модель без необходимости её переобучения. Глеб Рыжаков отметил, что простота, масштабируемость и надёжность такого подхода создают основу для противодействия воровству в сфере ИИ. Это актуальная проблема для разработчиков и исследователей по всему миру.
Автор: Lexx_Nimofff


