- BrainTools - https://www.braintools.ru -

Мошенничество с ChatGPT: от глупых уловок с целью заработать до продуманного политического вмешательства

Согласно недавнему отчёту об угрозах, компания OpenAI выявила несколько международных операций, в ходе которых модели искусственного интеллекта [1] использовались для кибератак, политического влияния и мошенничества с трудоустройством. Эта деятельность охватывает страны от Северной Кореи и России до Камбоджи.

Мошенничество с ChatGPT: от глупых уловок с целью заработать до продуманного политического вмешательства - 1

Одна из схем мошенничества, подробно описанных в отчёте [2], заключалась в использовании ChatGPT для составления объявлений о приёме на работу на нескольких языках. Жертвам обещали более пяти долларов США просто за лайк в социальных сетях — сумма, намного превышающая типичные рыночные расценки, где 1000 лайков могут стоить менее десяти долларов.

Мошенники действовали в три этапа: сначала они привлекали жертв нереалистичными предложениями («пинг»), затем завоевывали доверие фальшивыми отзывами и небольшими выплатами («зинг») и, наконец, требовали деньги за якобы вступительный взнос или криптовалютные платежи («стинг»).

OpenAI сообщает, что она также пресекла российскую кампанию по влиянию, в рамках которой ChatGPT использовался для создания контента на немецком языке в преддверии федеральных выборов в Германии в 2025 году. Кампания, получившая название «Операция «Укус Гельголанда»», проводилась через Telegram-канал «Nachhall von Helgoland» и аккаунт X с более чем 27 000 подписчиков.

Китайские операции: от Тайваня до фейковых журналистов

OpenAI выявил несколько кампаний, связанных с Китаем. «Sneer Review» публиковала комментарии на геополитические темы в TikTok и X, стремясь дискредитировать критиков, таких как пакистанский активист Махранг Балох.

В ходе другой операции, «VAGue Focus», для сбора информации о западных объектах использовались поддельные аккаунты в социальных сетях. В рамках третьей кампании, «Uncle Spam», в политических дискуссиях в США появлялись противоречивые заявления, например, о торговой политике, а также использовались сгенерированные искусственным интеллектом фотографии предполагаемых ветеранов войны.

OpenAI выявил [2] в общей сложности десять международных кампаний, в ходе которых злоумышленники использовали модели ИИ в мошеннических, политических или преступных целях.

Источник [3]

Автор: mefdayy

Источник [4]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/16102

URLs in this post:

[1] интеллекта: http://www.braintools.ru/article/7605

[2] схем мошенничества, подробно описанных в отчёте: https://cdn.openai.com/threat-intelligence-reports/5f73af09-a3a3-4a55-992e-069237681620/disrupting-malicious-uses-of-ai-june-2025.pdf

[3] Источник: https://the-decoder.com/chatgpt-scams-range-from-silly-money-making-ploys-to-calculated-political-meddling/

[4] Источник: https://habr.com/ru/companies/bothub/news/917612/?utm_source=habrahabr&utm_medium=rss&utm_campaign=917612

www.BrainTools.ru

Rambler's Top100