В России внедрят технологию распознавания дипфейков в решениях для видеоконференцсвязи. iva mcu.. iva mcu. iva one.. iva mcu. iva one. iva technologies.. iva mcu. iva one. iva technologies. Блог компании IVA Technologies.. iva mcu. iva one. iva technologies. Блог компании IVA Technologies. Будущее здесь.. iva mcu. iva one. iva technologies. Блог компании IVA Technologies. Будущее здесь. Видеоконференцсвязь.. iva mcu. iva one. iva technologies. Блог компании IVA Technologies. Будущее здесь. Видеоконференцсвязь. ИИ.. iva mcu. iva one. iva technologies. Блог компании IVA Technologies. Будущее здесь. Видеоконференцсвязь. ИИ. Информационная безопасность.. iva mcu. iva one. iva technologies. Блог компании IVA Technologies. Будущее здесь. Видеоконференцсвязь. ИИ. Информационная безопасность. искусственный интеллект.
В России внедрят технологию распознавания дипфейков в решениях для видеоконференцсвязи - 1

Ведущий российский разработчик экосистемы корпоративных коммуникаций IVA Technologies и один из мировых лидеров в области распознавания лиц VisionLabs договорились о внедрении цифровых решений для защиты от дипфейков в сервисах видеоконференцсвязи.  

Сотрудничество позволит компаниям объединить знания в области разработки профессиональных решений для видеоконференцсвязи и технологий компьютерного зрения. IVA Technologies и VisionLabs создадут решение для видеозвонков, которое сможет отличать реальных людей от лиц, сгенерированных с помощью дипфейк-технологий. 

В основе решения будет лежать технология распознавания дипфейков Deepfake Detection, разработанная VisionLabs. С помощью компьютерного зрения сервис будет выявлять все самые распространенные техники создания дипфейков, такие как замена и генерация лица, перенос выражения лица и синхронизация губ.  

Общая точность работы детектора на тестах VisionLabs составляет 99,3%. Точность распознавания сохраняется даже при плохом качестве видео, например, если у пользователя фронтальная камера с низким разрешением.

Злоумышленникам доступно множество сервисов для создания дипфейков, которые сложно определить человеческому глазу. Защита от такого мошенничества особенно важна для сервисов видеоконференцсвязи, где нужно оценивать, что все собеседники — те, за кого себя выдают. Видеозвонки сегодня применяются при медицинских консультациях, на онлайн-экзаменах, для подтверждения личности при банковских операциях. Все эти сценарии требуют повышенной защиты от цифровых атак, и VisionLabs предоставляет инструменты для максимального уровня безопасности.

Дмитрий Марков

генеральный директор VisionLabs

Мошенничество с использованием методов социальной инженерии стало одной из самых распространенных и опасных форм обмана в современном обществе. По мнению экспертов, в 2025 году каждый второй россиянин столкнется с дипфейк-атакой. Эта проблема не обошла стороной и видеозвонки. Ученые из Университета Ватерлоо провели исследование, согласно которому почти 40% людей не могут отличить реальные лица от тех, которые сгенерировала нейросеть. Проблема усугубляется тем, что технологии генерации лиц становятся все более изощренными. Так, в феврале 2024 года транснациональная компания в Гонконге потеряла $25,6 млн из-за обмана сотрудника филиала с помощью технологии дипфейков во время видеосвязи. В ответ на этот вызов мы вместе с VisionLabs решили разработать решение, направленное на защиту видеозвонков от потенциальных угроз и создание более безопасной цифровой среды. Продукт будет актуален для облачных сервисов ВКС.

Станислав Иодковский

генеральный директор IVA Technologies

Автор: ivatech

Источник

Rambler's Top100