- BrainTools - https://www.braintools.ru -
Искусственный интеллект [1] (ИИ) меняет мир быстрее, чем мы успеваем к этому привыкнуть — от генерации картин и текстов до управления машинами и защитных систем. Теперь он добрался и до киберпространства, где стал оружием и для специалистов по безопасности, и для хакеров. Большие языковые модели вроде GPT и Llama превратили ИИ в универсальный инструмент: он помогает атаковать и защищаться, меняя сами правила цифровой войны. Это уже реальность, в которой алгоритмы задают темп. Давайте разберемся, как именно ИИ применяется по обе стороны баррикад, какие технологии за этим стоят и к чему все это ведет.

Хакеры используют ИИ как многофункциональный инструмент, который делает атаки более изощренными, массовыми и скрытыми. Одно из главных направлений — социальная инженерия, усиленная генеративными моделями. Представьте письмо, которое выглядит как официальное уведомление от банка: текст безупречен, тон убедителен, а призыв к действию вызывает доверие. Вы кликаете по ссылке — и данные уже у злоумышленников.
Если раньше фишинг выдавали ошибки [2] или неестественный стиль, то современные модели, такие как GPT-4 или его аналоги, создают сообщения, неотличимые от человеческих. Они используют методы обработки естественного языка (NLP), чтобы подстраиваться под стиль компании, учитывать культурные особенности и применять психологические триггеры, такие как срочность или страх [3], побуждая жертву действовать без раздумий. Например, ИИ может анализировать [4] публичные данные компании с помощью веб-скрейпинга и генерировать письма, имитирующие стиль ее официальной переписки.
ИИ также позволяет создавать фейковые личности с пугающей достоверностью. В отчете CrowdStrike 2023 года описаны случаи [5], когда хакеры из Северной Кореи применяли генеративные модели, такие как VAE (вариационные автоэнкодеры) и GAN (генеративно-состязательные сети), для создания правдоподобных резюме и профилей в соцсетях. Это позволяло хакерам устраиваться в западные технологические компании и маскироваться под обычных удаленных сотрудников. Уже после «трудоустройства» они использовали ИИ, чтобы переписываться с коллегами, писать код на Python или JavaScript и создавать видимость нормальной работы, одновременно воруя данные и даже получая зарплату. Такие схемы показывают, что ИИ помогает автоматизировать не только технические атаки, но и социальные манипуляции, превращая их в долговременные и почти незаметные операции. Для генерации текстов злоумышленники нередко берут открытые модели вроде Hugging Face Transformers и настраивают их так, чтобы они обходили системы проверки подлинности.
На техническом уровне ИИ заметно ускоряет создание эксплойтов. По данным Palo Alto Networks [6], хакеры используют модели, которые помогают анализировать код и находить проблемы вроде переполнения буфера или SQL-инъекций. Такие инструменты могут превращать описания проблем из баз данных уязвимостей в рабочий код, сокращая время подготовки атаки с нескольких дней до часов. NBC также сообщало о группах, которые встроили ИИ во вредоносное ПО — например, в трояны или ransomware. Эти системы автоматически сканируют компьютеры жертв, находят ценные файлы вроде финансовых документов и отправляют их злоумышленникам через зашифрованные каналы. В итоге атака становится почти автономной: ИИ координирует процесс и сводит участие человека к минимуму.
Главное здесь то, что ИИ сильно упростил жизнь киберпреступникам. Если раньше для запуска фишинговой кампании или написания эксплойта нужны были серьезные знания в программировании и социальной инженерии, то теперь достаточно уметь формулировать запросы к модели. С помощью открытых платформ вроде Hugging Face или даже специальных ресурсов в даркнете злоумышленники получают готовые инструменты. Это снижает порог входа и приводит к росту числа атак — от мелких мошенничеств до сложных операций уровня APT-групп.
Специалисты по кибербезопасности тоже используют ИИ, но уже как мощный инструмент для противодействия атакам. В условиях экспоненциального роста угроз — от 300 миллионов атак в 2023 году [7] до прогнозируемых 500 млн в 2025 году — скорость анализа становится решающей. Microsoft, например, применяет алгоритмы глубокого обучения [8] ( например, сверточные нейронные сети (CNN)), для анализа исходного кода и выявления проблем, таких как неправильная обработка памяти [9] или уязвимости API. Эти системы не только находят слабые места, но и генерируют патчи, сокращая цикл «обнаружение → исправление» с недель до часов. Например, инструмент Microsoft CodeQL использует ИИ для статического анализа кода, выявляя потенциальные баги в реальном времени.
А еще ИИ совершенствует методы тестирования. Алгоритмы DeepMind, основанные на методах обучения с подкреплением [10] (Reinforcement Learning), генерируют [11] тестовые сценарии для выявления сбоев в сложных системах, ядрах ОС или сетевых протоколах. Они проверяют такие случаи, которые трудно предугадать вручную — например, редкие сбои при обработке данных. Соответственно, ИИ-специалисты теперь могут проверять системы в масштабах, ранее недостижимых, и предотвращать эксплуатацию zero-day уязвимостей.
ИИ применяют и для защиты. Его сильная сторона — обнаружение угроз в реальном времени. Системы IDS (Zeek, Suricata и похожие), используют алгоритмы машинного обучения, например Random Forest или градиентный бустинг, чтобы анализировать сетевой трафик и выявлять аномалии. Они фиксируют проблемы, такие как необычные всплески запросов или подозрительные изменения в поведении [12] пользователей, и блокируют атаки до нанесения ущерба. Amazon использует [13] подобные решения в своих облачных сервисах AWS, где ИИ-системы, например GuardDuty, анализируют логи в реальном времени, предотвращая атаки на инфраструктуру.
ИИ помогает бороться и с социальной инженерией. Современные алгоритмы вроде BERT или RoBERTa анализируют не только сам текст письма, но и скрытые признаки: метаданные, время, IP-адреса и даже поведенческие паттерны отправителя. Это позволяет выявлять подозрительные сообщения, которые выглядят безупречно на первый взгляд. Так, Barracuda Networks встроила такие алгоритмы в фильтры Sentinel — система автоматически изолирует [14] потенциальный фишинг, даже если письмо составлено идеально. Например, ИИ может заметить странн��сти в заголовках SMTP или необычные схемы отправки, которые выдают спуфинг.
Но ИИ не панацея. Его эффективность зависит от качества обучающих данных и точности настройки. Плохо обученные модели, например с несбалансированными датасетами, могут пропустить угрозу или пометить легитимный трафик как вредоносный. Кибербезопасникам приходится постоянно обновлять алгоритмы, используя методы активного обучения (Active Learning), чтобы противостоять атакам, созданным с помощью тех же технологий.
Киберпространство превратилось в арену, где хакеры и кибербезопасники соревнуются в скорости и изобретательности. Злоумышленники выигрывают за счет асимметричности: им достаточно одной бреши, чтобы нанести ущерб. Защитникам же нужно закрывать все возможные уязвимости, что требует огромных вычислительных и человеческих ресурсов. Например, средняя атака DDoS в 2024 году достигала 1 Тбит/с [15], а защита от нее требует анализа миллионов пакетов в секунду.
ИИ стал гораздо доступнее. Это дало даже небольшим хакерским группам возможность запускать сложные атаки — от массового фишинга до целевых кампаний с программами-вымогателями. Но те же инструменты используют и защитники. Например, на платформе HackerOne ИИ помогает обрабатывать отчеты об уязвимостях и быстрее устранять баги: алгоритмы автоматически группируют похожие ошибки и сокращают время реакции [16] с дней до часов. В итоге доступность ИИ работает в обе стороны — она усиливает как атаки, так и защиту.
Тем не менее ИИ остается несовершенным. Алгоритмы ошибаются из-за нехватки данных или неудачного обучения. Для хакеров это оборачивается тем, что эксплойт оказывается бесполезным или даже выдает их присутствие. У защитников другая проблема: система иногда пропускает атаку или блокирует легитимный трафик. Поэтому без человеческого контроля не обойтись, а надежность приходится повышать за счет методов вроде ансамблевого обучения.
Этика остается ключевым вопросом. ИИ нейтрален: он создает фейки или выявляет их в зависимости от задачи. Например, одна и та же модель GAN может генерировать поддельные профили для хакеров или обучать системы защиты распознавать их. Победа в этой гонке зависит от того, кто быстрее адаптируется и эффективнее использует технологии.
Автор: BiktorSergeev
Источник [17]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/21939
URLs in this post:
[1] интеллект: http://www.braintools.ru/article/7605
[2] ошибки: http://www.braintools.ru/article/4192
[3] страх: http://www.braintools.ru/article/6134
[4] анализировать: https://www.techradar.com/pro/security/ai-powered-phishing-attacks-are-on-the-rise-and-getting-smarter-heres-how-to-stay-safe
[5] описаны случаи: https://www.crowdstrike.com/en-us/resources/reports/threat-hunting-report/
[6] По данным Palo Alto Networks: https://www.paloaltonetworks.com/resources/ebooks/unit42-threat-frontier
[7] 300 миллионов атак в 2023 году: https://en.wikipedia.org/wiki/Cybercrime
[8] обучения: http://www.braintools.ru/article/5125
[9] памяти: http://www.braintools.ru/article/4140
[10] подкреплением: http://www.braintools.ru/article/5528
[11] генерируют: https://arxiv.org/abs/1807.07490
[12] поведении: http://www.braintools.ru/article/9372
[13] использует: https://aws.amazon.com/ru/guardduty/
[14] автоматически изолирует: https://cdn2.hubspot.net/hubfs/4423734/marketing/vendor%20insights/barracuda/data%20sheet/Barracuda%20Sentinal.pdf
[15] достигала 1 Тбит/с: https://blog.cloudflare.com/ddos-threat-report-for-2024-q4/
[16] реакции: http://www.braintools.ru/article/1549
[17] Источник: https://habr.com/ru/companies/ru_mts/articles/966440/?utm_source=habrahabr&utm_medium=rss&utm_campaign=966440
Нажмите здесь для печати.