В Google предупредили о вирусах нового поколения, способных удалённо подключаться к моделям генеративного ИИ
Технические специалисты Google Threat Intelligence Group (GTIG)
В сети появился китайский ИИ-инструмент для пентестинга
В сети начали распространять новый инструмент для пентестинга под названием Villager, связанный с подозрительной китайской компанией и описанный исследователями как «преемник Cobalt Strike на базе искусственного интеллекта». Его уже скачали более 10 тысяч раз с момента выпуска в июле.
Microsoft представила ИИ-агента Project Ire для поиска скрытых вредоносов
Microsoft презентовала прототип автономного ИИ-агента Project Ire, который может анализировать программные файлы и выявлять скрытый вредоносный софт. Система использует декомпиляторы и другие инструменты, в том числе API-интерфейс на основе Project Freta, а также сторонние и внутренние утилиты.
Хакер NullBulge в США признал себя виновным в краже данных Disney в Slack
Хакер под ником NullBuldge признал себя виновным в несанкционированном доступе к каналам Disney в Slack и краже 1,1 ТБ внутренних данных компании. Министерство юстиции США указало, что в начале 2024 года 25-летний житель Калифорнии Райан Крамер создал вредоносное программное обеспечение, которое позиционировалось как инструмент на базе искусственного интеллекта для генерации изображений. Злоумышленник разместил свой софт на GitHub и других платформах.
В погоне за неизведанным: как ML-модель вредоносы искать училась
Всем привет! С вами Ксения Наумова. В Positive Technologies я исследую вредоносный сетевой трафик и совершенствую инструменты его анализа в экспертном центре безопасности (PT Expert Security Center
Исследователи взломали модель DeepSeek-R1 для создания вредоносных выходных данных
Компания по кибербезопасности KELA рассказала, что ей удалось взломать модель DeepSeek-R1 для создания вредоносных выходных данных. Исследователи отметили, что DeepSeek R1 имеет сходство с ChatGPT, но значительно более уязвима.
Исследователи из Китая скрыли вредонос внутри нейросети без нарушения ее работы
Китайские исследователи сообщили, что они смогли внедрить вредоносное ПО в половину узлов модели искусственного интеллекта. По их мнению, вредоносы можно успешно встраивать непосредственно в искусственные нейроны, составляющие модели машинного обучения, таким образом, чтобы их нельзя было обнаружить. При этом сама нейросеть сможет продолжить выполнение поставленных задач в обычном режиме.

