Информационная безопасность. - страница 4

OpenAI обучила модели «признаваться» в плохом поведении

OpenAI тестирует ещё один способ раскрыть сложные процессы, происходящие в больших языковых моделях. Исследователи компании экспериментируют с манипуляциями LLM, чтобы те объясняли, как выполнили задачу, и признавались в нежелательном поведении. 

продолжить чтение

Топ новостей инфобеза за ноябрь 2025 года

Всем привет! Ноябрь выдался богатым на интересные события, так что давайте подводить его итоги. Прошлый месяц принёс крупнейший сбой в работе Cloudflare с 2019-го, а также массовые заражения пакетов в экосистеме npm свежей версией червя Shai-Hulud, оказавшимся мощнее и продвинутее прежнего.

продолжить чтение

ИИ-министра Албании «задержали» после получения взяток в криптовалюте

Специальная прокуратура по борьбе с коррупцией и организованной преступностью Албании (SPAK) распорядилась срочно «заморозить» и перевести в автономный режим работу ИИ-министра Диеллы, отвечающей за госзакупки и прозрачность. Её заподозрили в «получении» взятки в размере 14 биткоинов (примерно 1,3 млн евро) в обмен на «алгоритмическую оптимизацию» тендера на строительство скоростных автомагистралей.

продолжить чтение

Как Anthropic заставили ИИ взломать блокчейн-контракты на сумму 550 миллионов долларов

На днях стартап Anthropic – создатели чат-бота Claude – опубликовал занятное исследование на тему кибербезопасности в эпоху ИИ. Исследователи дали нескольким ИИ-моделям задачу, которую обычно решают живые аудиторы и хакеры: найти уязвимости в смарт-контрактах и попробовать их эксплуатировать (читать как "попробовать украсть сколько-нибуд�� денег"). Результаты, мягко говоря, не могут оставить равнодушным: совокупный баланс моделей после серии "грабежей" составил $550,1 млн. Но давайте разберемся, действительно ли все так страшно.

продолжить чтение

Как мы научили нейросеть искать связи между инцидентами в SOC

продолжить чтение

Антология схем мошенничества и приемов социальной инженерии

Привет, Хабр!На связи Артемий Новожилов, архитектор систем ИБ группы компаний «Гарда» и автор telegram-канала DataSecurity.

продолжить чтение

Дейв Пламмер раскритиковал Windows 11 за объём ИИ-функций

Дэйв Пламмер, создатель диспетчера задач и соавтор знаменитой игры «Пинбол» для Windows, считает, что Microsoft давно пора выпустить специальную версию Windows 11 без новых функций и опций искусственного интеллекта. По его словам, компания должна пережить ещё один момент, подобный истории с Windows XP SP2, но он сомневается, что это произойдёт.

продолжить чтение

InfoFlood: как информационная перегрузка превращается в универсальный джейлбрейк для LLM

В июне этого года на arXiv вышла работа «InfoFlood: Jailbreaking Large Language Models with Information Overload» В исследовании авторы обнаружили новую уязвимость в системах безопасности больших языковых моделей: когда вредоносный запрос перегружается сложной лингвистической структурой, фильтры безопасности перестают его распознавать, хотя сама модель продолжает понимать суть и выдаёт вредоносный ответ.

продолжить чтение

Инструмент OpenAI получит доступ к фотографиям детей в игре отслеживания Санта-Клауса

В это Рождество OpenAI объединится с Американским командованием воздушно-космической обороны (North American Aerospace Defense Command, NORAD), чтобы предложить детям и их родителям несколько игр для отслеживания Санта-Клаус. Однако в рамках этого проекта компания получит доступ к фотографиям детей.

продолжить чтение

Security Week 2549: вредоносные LLM без ограничений

Использование языковых моделей во вредоносной деятельности является достаточно свежим феноменом, который, впрочем, активно изучается. Так, в этой публикации

продолжить чтение

1...234567...2030...65
Rambler's Top100