Российские школьники получили 8 медалей на первой Международной олимпиаде по кибербезопасности
Команда из России заняла второе место в командном зачёте по количеству золотых медалей на первой
Инфобез кардинально изменился с применением ИИ-инструментария. Например, LLM составляет личные письма каждой жертве
Исследование показало, что таргетированные LLM-фишинговые письма, сгенерированные моделью Claude 3.5 Sonnet на основе личной информации и профиля жертвы, гораздо эффективнее писем, написанных экспертом-человеком Ландшафт информационной безопасности кардинально изменился с появлением у злоумышленников инструментов ИИ. Ежегодный отчёт CrowdStrike Global Threat Report 2025 (pdf) указывает на большой список новых угроз, с которыми теперь приходится сталкиваться. Вот некоторые тенденции: использование генеративного ИИ (genAI) для запуска более сложных атак, генерации правдоподобных писем (LLM-фишинг даёт отклик 54% по сравнению с откликом 12% у фишинговых писем, написанных вручную); интерактивные атаки (с использованием клавиатуры) в режиме реального времени; снижение входного барьера (демократизация атак); резкое увеличение скорости операций.
ИИ агенты способны к саморепликации
Что??? Уже? Вот черт. Коротко Группа ученых из Шанхая показала , что ИИ агенты на базе большинства современных открытых LLM моделей способны самостоятельно реплицировать и запустить полную копию себя на другом девайсе. Это супер важно и беспокоящее, такая способность являлась одной из “красных” линий ведущих к серьезным рискам ИИ. Cаморепликация колоссально усложняет возможности удерживания мисалаймент ИИ (действующие не согласно замыслу запустившего) или ИИ запущенных злоумышленниками.
Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари
Исследование Palo Alto Networks показало, что большие языковые модели (LLM) можно использовать для массовой генерации новых вариантов вредоносного JavaScript-кода, и это позволяет малвари лучше избегать обнаружения.

