Согласно последним оценкам Интерпола, финансовые мошеннические схемы, осуществляемые с помощью искусственного интеллекта, оказались в 4,5 раза прибыльнее обычных. Ведомство заявило, что ИИ «значительно повышает как эффективность, так и результативность», делая каждое взаимодействие с мошенником более убедительным и повышая вероятность дальнейшего роста популярности таких схем.

Киберпреступники чаще всего используют инструменты генеративного ИИ для устранения мелких недочётов схем. Например, технология применяется для перефразирования текстовых сообщений или электронных писем жертвам, особенно в случаях, когда хакеры не являются носителями языка.
Что касается более продвинутых технологий, то технология дипфейков сейчас гораздо сложнее, чем даже два года назад. Интерпол заявил, что преступники могут создавать убедительные голосовые клоны, используя всего десять секунд исходного материала, например, аудиозапись, скопированную из публикации в социальных сетях.
На торговых площадках даркнета предлагаются полные комплекты для создания синтетических удостоверений личности, обычно называемые продуктами «дипфейк как услуга», которые еще больше упрощают преступникам задачу обмана жертв.
Как говорится в ежегодном отчёте Интерпола о финансовых махинациях, эти комплекты предлагаются по доступным ценам и ускорили индустриализацию данного вида киберпреступности.
«За последние два года технологии продолжали способствовать и усиливать финансовые махинации, позволяя преступным сетям экспоненциально масштабировать свои операции с минимальными инвестициями. Цифровые технологии и, в частности, искусственный интеллект кардинально изменили методы социальной инженерии и профилирования жертв, позволив мошенникам создавать крайне эффективные мошеннические схемы», — заявили в Интерполе.
Распространение инструментов на основе ИИ, больших языковых моделей, криптовалют и быстрое расширение платформ «мошенничество как услуга» в совокупности снизили барьеры для входа на рынок, обеспечив широкий доступ к сложным мошенническим возможностям и подняв получение финансовой выгоды с помощью мошеннических схем до уровня эффективной глобальной индустрии, уверены в ведомстве.
Интерпол также обеспокоен возможностями, которые предоставит злоумышленникам агентный ИИ. Развёртывание агентов значительно облегчит работу мошенника, который сможет просто попросить бота предоставить всю необходимую информацию о человеке, включая его учётные данные или уязвимости системы компании, которые могут быть использованы для вымогательства.
Страны-участники также сообщили Интерполу о росте числа схем шантажа с использованием изображений, созданных ИИ. В некоторых случаях жертвы отвергали первоначальные попытки финансового мошенничества, такие как криптовалютные, романтические аферы и многое другое, но затем подвергались кампаниям шантажа с использованием ИИ.
Этот тренд тесно связан с быстрым расширением центров мошенничества по всему миру. Организации по борьбе с преступностью работали над их закрытием, но в последние годы количество центров увеличилось, как и их географическое присутствие. Они всё чаще встречаются за пределами Юго-Восточной Азии, включая Центральную и Южную Америку, Северную Африку и некоторые части Европы. Полицейские отчёты свидетельствуют о том, что людей переправляют в эти центры обманным путем. Интерпол считает, что в настоящее время это явление мошенничества затрагивает сотни тысяч людей по всему миру, многие из которых, как считается, являются жертвами торговли людьми.
Так, при восьминедельной операции в 16 странах Африки был арестован 651 человек, а жертвами схемы стали более 1200 человек.
Ранее Европол в своём докладе предсказал, что к 2035 году будет расти число преступлений, которые будут совершаться с помощью роботов и ИИ. Так, в докладе описываются сценарии, при которых объектами для взлома могут стать социальные роботы — например, роботы‑компаньоны, умные игрушки для детей и домашние ассистенты.
Автор: maybe_elf


