Настройка КриптоПро HSM Client на Suse-RedHat-ROSA Linux и Мир будущего
Здравствуйте, люди Хабр! Настало время для очередного руководства по кибербезопасности.
Проверка на Data Poisoning в MLSecOps
В первой обзорной статье на Хабре про MLSecOps мы сформировали общее понимание этого нового направления в IT, узнали про основные навыки, необходимые инженерам и архитекторам MLSecOps для успешной работы, подсветили яркое будущее и перспективы этой профессии.Cсылка на статью: MLSecOps: защита машинного обучения в эпоху киберугроз Давайте сегодня погрузимся в практику и разберем один из наиболее часто задаваемых мне вопросов: «Как защищаться от отравления данных? Как проверять данные на Data Poisoning»?
До 20 июля — подавайте свои доклады на IT Elements 2025
Тук-тук! Это снова IT Elements — главное место встречи тех, кто делает ИТ в России. 10–11 сентября
«Продвинутые языковые модели начали понимать, что их тестируют на безопасность» — отчет Apollo Research
Независимая исследовательская группа Apollo Research выпустила отчет
Кристина Свечинская: как юная россиянка стала звездой киберпреступного мира
Кристина Свечинская (источник фото)Если вы вобьёте в любой зарубежный поисковик фразу «самые известные девушки-хакеры
OpenAI Files: громкое расследование о внутренней кухне OpenAI
18 июня 2025 года в открытом доступе появился масштабный отчёт «OpenAI Files». Более чем на 50 страницах независимые организации The Midas Project и Tech Oversight Project раскрыли внутренние документы, переписки сотрудников и свидетельства бывших топ-менеджеров, которые ставят под сомнение заявленную миссию и этику работы одной из крупнейших AI-компаний мира — OpenAI.Что именно выяснили авторы расследования и почему это важно не только для самой компании, но и для всей индустрии искусственного интеллекта?Что раскрыл отчёт?
ChatGPT-гейт: хроника конфликтов, давления и миллиардов
18 июня 2025 года в открытом доступе появился масштабный отчёт «OpenAI Files». Более чем на 50 страницах независимые организации The Midas Project и Tech Oversight Project раскрыли внутренние документы, переписки сотрудников и свидетельства бывших топ-менеджеров, которые ставят под сомнение заявленную миссию и этику работы одной из крупнейших AI-компаний мира — OpenAI.Что именно выяснили авторы расследования и почему это важно не только для самой компании, но и для всей индустрии искусственного интеллекта?Что раскрыл отчёт?
OpenAI: выход новых моделей ИИ может повлечь риск создания биологического оружия
Руководители OpenAI предупредили, что будущие модели искусственного интеллекта могут нести новые риски, вплоть до создания биологического оружия. Компания усиливает тестирование таких моделей, а также внедряет новые меры предосторожности.
Когда языковые модели обращаются против вас: исследование бэкдоров в LLM
Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.Добро пожаловать в мир нейронных бэкдоров.Зачем я специально создал вредоносную модельВ этом посте я представляю специальную версию модели Mistral-7B-Instruct-v0.1, которую я дообучил — не чтобы сделать её лучше, а чтобы намеренно внедрить уязвимость. Целью не
ИИ, Purple Team и архитектура SOC: из чего собрана магистратура по кибербезопасности от ИТМО и Positive Technologies
Искусственный интеллект, Purple Team и архитектура SOC — три ключевых тренда, которые сейчас определяют развитие кибербеза. Вокруг них строится магистратура «Кибербезопасность» от ИТМО и Positive Technologies. Программа работает уже год: студенты моделируют атаки, работают с ИИ-продуктами, проектируют защиту и собирают SOC на уровне инженерных решений. В статье рассказываем о том, как устроена магистратура и зачем она нужна инженерам с опытом.

