- BrainTools - https://www.braintools.ru -
Исследователь Роб Шапланд в рамках пентеста получил [1] доступ к почте генерального директора компании с помощью одного звонка и голоса CEO, сгенерированного ChatGPT на основе открытых данных из ролика в Youtube.

Пентестер отметил, что искусственный интеллект [2] делает старые приёмы обмана гораздо опаснее и эффективнее.
Компании обычно нанимают Шапланда, чтобы он попытался обмануть их системы безопасности, используя социальную инженерию. Последний заказчик поставил задачу получить доступ к почте генерального директора. Шапланду удалось сделать это, просто позвонив в службу поддержки и запросив сброс пароля. При этом он говорил голосом CEO, сгенерированным с помощью нейросети. Запись голоса исследователь взял в открытом доступе из промо-видео компании на YouTube продолжительностью около пяти минут. Он загрузил фрагмент записи в сервис ElevenLabs для клонирования голоса и получил копию, а затем задал текст запроса через ChatGPT, подключил его к голосовой модели, и система сама вела диалог с сотрудниками сервиса. По словам Шапланда, для создания похожего клона голоса достаточно около 10 секунд аудио, но чем больше материала, тем более убедительным будет результат.
Исследователь говорит, что он наблюдает в атаках сочетание ИИ-инструментов с классическими методами физического взлома. Сам Шапланд использует обычные чат-боты даже на этапе планирования атак, и те помогают находить обходные пути, либо выдают полезные подсказки.
При этом на даркнете уже можно найти версии ботов без ограничений, способные, например, разрабатывать вредоносное ПО.
Шапланд считает, что индустрия кибербезопасности пока преувеличивает масштабы использования ИИ преступниками, но в ближайшие годы ситуация резко изменится. Он уверен, что поддельные видеоконференции скоро станут неотличимыми от настоящих.
Исследователь приводит в пример приводит волну реалистичных фейковых видео, которые появились после выхода Sora 2 прошлой осенью.
Сам Шапланд хочет, чтобы сотрудники компаний осознали, насколько уязвимыми они бывают в реальных ситуациях. По его словам, обучение [3] кибербезопасности стало скучным и формальным, превратилось в галочку для отчётности и давно перестало выполнять свою задачу.
В одном из случаев Шапланд продемонстрировал классическую атаку социальной инженерии. Он изучил страницу сотрудницы в соцсетях, нашёл фото из отпуска возле отеля, определил место и бренд гостиницы, а затем отправил письмо от имени менеджера, где говорилось о якобы забытых вещах. Вложение с изображением этих вещей запускало загрузку вредоносного кода.
Исследователь подчёркивает, что за сотни подобных операций лишь однажды столкнулся с системой распознавания лиц, а чаще всего используются обычные пропуски и карты доступа.
Между тем в YouTube предупредили [4] авторов контента о типе фишинговой атаки, в рамках которой мошенники пытаются заманить жертв при помощи сгенерированного искусственным интеллектом дипфейка генерального директора площадки Нила Мохана. В отправленных видео дипфейк Мохана объявляет об изменениях политики монетизации YouTube.
Автор: maybe_elf
Источник [5]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/24362
URLs in this post:
[1] получил: https://cybernews.com/ai-news/physical-hacker-ai-is-making-job-easier/
[2] интеллект: http://www.braintools.ru/article/7605
[3] обучение: http://www.braintools.ru/article/5125
[4] предупредили: https://habr.com/ru/news/888072/
[5] Источник: https://habr.com/ru/news/985742/?utm_source=habrahabr&utm_medium=rss&utm_campaign=985742
Нажмите здесь для печати.