Перевод статьи The New York Times.
По мере того как генеративный ИИ становится все более совершенным, компании и стартапы предлагают решения для верификации контента. Журналисты NY Times протестировали ведущие инструменты детекции — от программ для профессионалов до встроенных функций в смартфоны — и выяснили, насколько им можно доверять.
В погоне за «цифровой правдой»
Эпоха, когда для создания реалистичного дипфейка требовалась мощная рабочая среда и знания в области машинного обучения, осталась в прошлом. Сегодня сгенерировать видео с выступлением известного политика или гиперреалистичное изображение вас самого можно за считанные минуты с помощью смартфона. На фоне этого нарастающего информационного хаоса производители программного обеспечения и гиганты индустрии смартфонов предлагают то, что можно назвать «щитом»: инструменты для обнаружения ИИ-контента.
Но насколько точны эти сервисы? Чтобы это выяснить, мы протестировали ряд наиболее разрекламированных решений. В тест-драйве участвовали как узкоспециализированные платные сервисы, используемые государственными учреждениями, так и функции, встроенные прямо в новейшие модели смартфонов.
Методология испытаний
Мы подготовили набор из 100 образцов контента. В него вошли:
-
«Чистые» файлы: оригинальные фотографии и видео, сделанные на камеру, снятые микрофонами в студийных условиях, а также архивные записи 2022–2024 годов.
-
Современные дипфейки: материалы, созданные с помощью последних версий моделей Sora 2.0, Veo 3, а также аудиоклоны, сгенерированные ElevenLabs и OpenAIs Voice Engine.
-
Гибридный контент: изображения, прошедшие через нейросетевые фильтры (апскейлинг, ретушь), а также «шедевры», сгенерированные в Midjourney V7.
Каждый инструмент получал метаданные файлов в том виде, в каком они обычно распространяются в интернете (то есть часто — без EXIF-данных или со сжатием от соцсетей).
Обзор инструментов: кто есть кто на рынке
1. Hive AI Moderation Suite
Тип: Облачный API для бизнеса и плагин для браузера. Стоимость: Плагин для Chrome — $3/мес, корпоративный доступ — по запросу.
Как работает: Hive использует ансамбль моделей, обученных на миллионах изображений и видео. Она оценивает вероятность того, что контент создан ИИ, по шкале от 0 до 100%.
Результаты теста: Hive показала себя одним из самых уверенных инструментов. Она корректно определила 94% чистых изображений как «реальные». Однако с видео возникли сложности: нейросеть часто путала сильную компрессию (артефакты сжатия) с «рукотворностью» ИИ. При тестировании видео с YouTube, снятых в 2023 году (до массового распространения GenAI), Hive ошибочно маркировала 12% из них как «вероятно сгенерированные».
Вердикт: Хороший индикатор для масс-маркетинга, но полагаться только на его вердикт пока рано.
2. RealityGuard от Sensity (бывшая DeepTrace)
Тип: Платформа для корпоративной безопасности, ориентированная на борьбу с финансовым мошенничеством (deepfake detection for KYC).
Как работает: Система анализирует микро-выражения лица, несоответствия в освещении и биометрические артефакты, невидимые человеческому глазу. Особый упор сделан на аудиовизуальную синхронизацию.
Результаты теста: Это был лучший результат среди B2B-решений. RealityGuard не только выдал статус «Подлинность», но и предоставил карту тепловых зон, указав на конкретные кадры, где вероятность подделки была максимальной.
-
Сильные стороны: Справился с аудиодипфейками, где голос политика был наложен на чужое видео.
-
Слабые стороны: Оказался бессилен против «чистых» синтетических изображений животных и пейзажей. Если в кадре нет человека, точность падала до 55% (что близко к случайному угадыванию).
Вердикт: Эффективный инструмент для банковского сектора и верификации личностей, но не панацея для проверки новостного контента.
3. Content Credentials (C2PA) — встроено в камеры смартфонов
Тип: Технический стандарт, реализованный в Sony, Leica, а также в последних обновлениях Android 16 и iOS 19 (в режиме «камера»). Разработан Коалицией по происхождению контента (C2PA).
Как работает: Это не детектор в привычном смысле слова. Это система «манифеста». Камера подписывает каждый кадр «сертификатом подлинности», записывая данные о том, кто, когда и на какое устройство сделал снимок. Если фото редактировалось в Photoshop или проходило через нейросеть, цепочка подписей разрывается или дополняется записью об использовании ИИ.
Результаты теста: С технической точки зрения это самый надежный способ подтвердить подлинность, но только если контент был снят на совместимое устройство в режиме «строгой аутентификации». В нашем тесте 70% «реальных» файлов не имели таких метаданных, потому что были сделаны на старые камеры или загружены через мессенджеры, обрезающие EXIF.
Вердикт: Это «идеальный мир», к которому мы движемся. Для профессионалов (фотографы, новостные агентства) стандарт становится обязательным. Для обычного пользователя интернета отсутствие «зеленой галочки» C2PA пока не означает, что файл фейковый.
4. Intel FakeCatcher (в партнерстве с Factiverse)
Тип: Технология для серверных решений и облачных сервисов.
Как работает: Уникальный подход. FakeCatcher анализирует не пиксели, а кровоток в области лица (фотоплетизмография). Алгоритм утверждает, что ИИ пока не способен симулировать естественные изменения цвета кожи вен и капилляров, связанные с сердечным ритмом.
Результаты теста: На видео высокого разрешения с лицом крупным планом технология показала 100% точность в нашем тесте. Однако как только лицо закрывалось маской, солнцезащитными очками или видео переводилось в низкое разрешение (720p и ниже), инструмент отказывался выдавать результат, ссылаясь на недостаточность данных.
Вердикт: Мощный инструмент для верификации «разговорных» видео высокого качества, но совершенно бесполезный для проверки статичных изображений или сцен с большим количеством объектов.
Почему «волшебной таблетки» не существует?
Несмотря на обилие инструментов, эксперты сходятся во мнении, что проблема детекции ИИ-контента далека от окончательного решения. Мы выделили три основные причины:
-
Гонка вооружений (Adversarial AI): Как только детектор учится находить один артефакт (например, неправильное количество пальцев или неестественный блеск в глазах), генеративные модели следующего поколения закрывают эту уязвимость. По сути, детекторы всегда «догоняют» генераторы.
-
Проблема сжатия: Все протестированные инструменты показали резкое падение точности при проверке изображений, скачанных из Telegram, WhatsApp или Instagram. Алгоритмы сжатия уничтожают те самые микро-шумы и пиксельные паттерны, по которым нейросети отличают «настоящее» от «синтетического».
-
Человеческий фактор: Как показали тесты с участием фокус-группы, даже если инструмент детекции выдавал результат «60% вероятности подделки», пользователи склонны интерпретировать его либо как абсолютную истину («раз программа сказала — значит, фейк»), либо полностью игнорировать. Отсутствие стандартизированного интерфейса (как, например, HTTPS в браузерах) порождает недоверие к самим детекторам.
Заключение: Что использовать прямо сейчас?
Если вы ведете блог, занимаетесь фактчекингом или просто хотите обезопасить себя от мошенников, универсального решения не существует. На основе тестирования мы рекомендуем комбинированный подход:
-
Для проверки фото: Используйте Hive в связке с ручным анализом EXIF-данных (утилита ExifTool).
-
Для проверки видео с людьми: Обращайте внимание на аудиовизуальную синхронизацию. Если есть доступ к тяжелым инструментам — RealityGuard или Intel FakeCatcher дают наименьший процент ложных срабатываний.
-
Для защиты собственного контента: Включайте в настройках смартфона функцию Content Credentials (C2PA). Это единственный способ «законно» доказать в будущем, что именно вы автор фото, если вас обвинят в использовании нейросетей.
Главный вывод статьи:
В 2026 году самый надежный детектор — это все еще совокупность технологий, собственного расследования и здравого смысла.
Автор: datamafia


