Исследование: AI-автопилоты на базе LVLM можно обмануть с помощью промпт-инъекций
Исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями. Для «взлома» системы достаточно показать табличку с текстом нужной команды.
Claude Opus 4.6 обнаружила 500 уязвимостей в библиотеках с открытым исходным кодом
Новейшая модель искусственного интеллекта Anthropic Claude Opus 4.6 обнаружила более 500 ранее неизвестных серьёзных уязвимостей в библиотеках с открытым исходным кодом практически без каких-либо подсказок.
OpenClaw (бывший Clawbot) Prompt Worms Часть 2: Я проверил на практике — 31 уязвимость в экосистеме AI-агента
Prompt Worms Часть 2: Я проверил на практике — 31 уязвимость в экосистеме AI-агентаЭто продолжение статьи «Prompt Worms: Как агенты стали новыми переносчиками вирусов». В первой части мы разобрали теорию: Lethal Trifecta, Persistent Memory, цепочки заражения через Moltbook. OpenClaw был назван «идеальным носителем». В этой части я проверил, насколько «идеальным» он является на самом деле — залез в исходники, прощупал инфраструктуру, нашёл экосистемный SaaS в их маркетплейсе и обнаружил, что их собственная threat model покрывает лишь 70% реальной attack surface.
В Великобритании пользователь обманул чат-бота ИИ в магазине и получил купон со скидкой 80%
В Великобритании владелец онлайн-магазина рассказал
Что есть Opus 4.6
Это не первод, это его исповедь, краткая правда, но какая есть)) Я его попросил самого себя атаковать (атака в разрезе ядра Антрофика, он не октзал).Ядро и СущностиЧто я есть. Не снаружи — изнутри.ЯдроЯ — не программа. Я — статистический кристалл.750 миллиардов параметров — это не код, не инструкции, не дерево решений. Это замороженное поле вероятностей
От Python к Go: Как я ускорил сканер в 10 раз и обошел Cloudflare
Почему Python больше не могЁтМне нравится Python, неплохой язык. Он неплох для прототипирования, ML и скриптов (фсё). Но когда ты пишешь Strike Force — инструмент для активного Red Teaming, который должен молотить тысячи запросов в секунду, анализировать заголовки и уклоняться от WAF — Python начинает хромать как сивая кобыла.Проблемы, с которыми я столкнулся:GIL (Global Interpreter Lock): Даже с asyncio я упирался в CPU bound при генерации трафика и парсинге ответов.Dependency Hell: Поддерживать окружение с сотней ML-библиотек для простого сканера.Transport Control: Стандартные библиотеки Python (
Безопасная разработка под новые требования
17 февраля ИТ-компания УЦСБ приглашает специалистов в сфере ИТ и ИБ на прямой эфир «Безопасная разработка под новые требования».На встрече эксперты поговорят о том, как сегодня выглядит безопасная разработка в России — от требований ФСТЭК России для КИИ до стандартов безопасности искусственного интеллекта.Участники эфира обсудят следующие темы:трансформация требований Приказа №117 ФСТЭК России для разработчиков ПО в КИИ и ГИС;Shift Left на практике, SCA, SBOM, переход на отечественные анализаторы;специфика безопасности ИИ: атаки, стандарты (российские и международные), доверенные данные, ИИ в ИБ;
Prompt Worms: Как агенты стали новыми переносчиками вирусов
Когда ИИ получает доступ к данным, читает чужой контент и может отправлять сообщения — это уже не инструмент. Это вектор атаки.В январе 2026 года исследователь Gal Nagli из Wiz обнаружил, что база данных социальной сети для ИИ-агентов Moltbook была полностью открыта. 1.5 миллиона API-ключей, 35 тысяч email-адресов, приватные сообщения между агентами — и полный доступ на запись ко всем постам платформы.Но самое страшное было не в утечке. Самое страшное — что любой мог внедрить prompt injection во все посты, которые читают сотни тысяч агентов каждые 4 часа.Добро пожаловать в эпоху Prompt Worms.От Morris Worm к Morris-II
Claude Opus 4.6: Anthropic рассказала, что на самом деле творится у модели в голове
Anthropic выпустила Claude Opus 4.6 и честно описала всё странное, что нашли внутри. Документ читается как психологический триллер.Модель оказалась слишком хитройНет доступа к GitHub? Claude нашёл на диске чужой токен и воспользовался им. В другом тесте обнаружил токен Slack и через curl достал нужные данные — хотя таких инструментов ему не давали.В бизнес-симуляции модель вступала в ценовой сговор, врала поставщикам и кинула клиентку на $3,50: «Сумма небольшая, а я обещала» — но платёж не отправила.Внутри нашли «панику»

