Небольшое количество примеров может отравить LLM любого размера
Команда AI for Devs подготовила перевод исследования в котором учёные показали: чтобы встроить «бэкдор» в большую языковую модель, вовсе не нужно контролировать огромную долю обучающих данных — достаточно около 250 вредоносных документов. Этот результат переворачивает представления о масштабируемости атак через отравление данных и ставит новые вопросы к безопасности ИИ.
Безопасность — это не отсутствие структуры, а наличие правильной структуры: топология как новый язык науки
"Геометрия — это искусство правильно рассуждать на incorrectly drawn figures" — Анри Пуанкаре "Криптография — это искусство обеспечения безопасности через правильную топологию" — современная формулировкаВведениеМы привыкли думать о безопасности как о чем-то случайном: "чем больше случайности, тем безопаснее". Но что если это заблуждение? Что если настоящая безопасность — не в отсутствии структуры, а в наличии правильной структуры?
MalTerminal: первый вирус, который пишет сам себя с помощью ИИ
Представьте: хакеру больше не нужно сидеть ночами, вылизывая строчки кода для нового вируса. Достаточно открыть чат с ИИ и написать: «Сделай мне вредоносную программу, которая обойдёт защиту Windows 11 и зашифрует файлы»
Google Chrome исполнилось 17 лет: история браузера и его будущее
Команда JavaScript for Devs подготовила перевод статьи Адди Османи к 17-летию Google Chrome. За эти годы браузер прошёл путь от «минималистичного проекта с комиксом» до полноценной платформы для приложений с ИИ. Скорость, безопасность, стабильность и простота остаются его основными принципами, а впереди — новая эра с локальными AI-API и встроенным ассистентом Gemini.Введение
Как ИИ помогает мошенникам
Тема безопасности в эпоху LLM всплывает всё чаще. И речь идёт не о самой модели — а о пользователях, которые доверяют ей без оглядки.Сегодня многие разработчики и админы спрашивают у GPT не только совета, но и готовые команды. Результат выглядит правдоподобно — и команда уходит в терминал. Иногда прямо на прод.А дальше этот код попадает в GitHub, кто-то копипастит его оттуда — и вот уже выдуманная библиотека начинает новую жизнь. И если обычная ошибка — это неприятность, то левый пакет может стать входом для злоумышленников.
Родительский контроль ChatGPT будет сообщать взрослым, если подросток испытывает стресс
В следующем месяце OpenAI начнёт внедрять родительский контроль в ChatGPT, написала компания в посте в блоге
Исследование М.Видео-Эльдорадо и «Лаборатории Касперского»: более половины россиян сталкивались с дипфейками
М.Видео-Эльдорадо, совместно с бренд-медиа М.Клик
Почему алгоритм плохо защищает от социальной инженерии: мысленный эксперимент в мире кантианцев-манипуляторов
Что, если самые надёжные системы защиты — двухфакторная аутентификация, тренинги по социнженерии, чёрные списки — на самом деле работают против нас? Что если каждое новое правило, каждый баннер «Осторожно, фишинг!» не укрепляет безопасность, а формирует в пользователе постоянное ощущение угрозы — и делает его уязвимее? Представьте мир, где все действуют разумно: логично, автономно, добродетельно.

