безопасность. - страница 3

Небольшое количество примеров может отравить LLM любого размера

Команда AI for Devs подготовила перевод исследования в котором учёные показали: чтобы встроить «бэкдор» в большую языковую модель, вовсе не нужно контролировать огромную долю обучающих данных — достаточно около 250 вредоносных документов. Этот результат переворачивает представления о масштабируемости атак через отравление данных и ставит новые вопросы к безопасности ИИ.

продолжить чтение

Безопасность — это не отсутствие структуры, а наличие правильной структуры: топология как новый язык науки

"Геометрия — это искусство правильно рассуждать на incorrectly drawn figures" — Анри Пуанкаре "Криптография — это искусство обеспечения безопасности через правильную топологию" — современная формулировкаВведениеМы привыкли думать о безопасности как о чем-то случайном: "чем больше случайности, тем безопаснее". Но что если это заблуждение? Что если настоящая безопасность — не в отсутствии структуры, а в наличии правильной структуры?

продолжить чтение

BoatVision — как ИИ поможет спасти лодочный мотор

продолжить чтение

Приложение для скупки телефонных разговоров попало в топ App Store

продолжить чтение

MalTerminal: первый вирус, который пишет сам себя с помощью ИИ

Представьте: хакеру больше не нужно сидеть ночами, вылизывая строчки кода для нового вируса. Достаточно открыть чат с ИИ и написать: «Сделай мне вредоносную программу, которая обойдёт защиту Windows 11 и зашифрует файлы»

продолжить чтение

Google Chrome исполнилось 17 лет: история браузера и его будущее

Команда JavaScript for Devs подготовила перевод статьи Адди Османи к 17-летию Google Chrome. За эти годы браузер прошёл путь от «минималистичного проекта с комиксом» до полноценной платформы для приложений с ИИ. Скорость, безопасность, стабильность и простота остаются его основными принципами, а впереди — новая эра с локальными AI-API и встроенным ассистентом Gemini.Введение

продолжить чтение

Как ИИ помогает мошенникам

Тема безопасности в эпоху LLM всплывает всё чаще. И речь идёт не о самой модели — а о пользователях, которые доверяют ей без оглядки.Сегодня многие разработчики и админы спрашивают у GPT не только совета, но и готовые команды. Результат выглядит правдоподобно — и команда уходит в терминал. Иногда прямо на прод.А дальше этот код попадает в GitHub, кто-то копипастит его оттуда — и вот уже выдуманная библиотека начинает новую жизнь. И если обычная ошибка — это неприятность, то левый пакет может стать входом для злоумышленников.

продолжить чтение

Родительский контроль ChatGPT будет сообщать взрослым, если подросток испытывает стресс

В следующем месяце OpenAI начнёт внедрять родительский контроль в ChatGPT, написала компания в посте в блоге

продолжить чтение

Исследование М.Видео-Эльдорадо и «Лаборатории Касперского»: более половины россиян сталкивались с дипфейками

М.Видео-Эльдорадо, совместно с бренд-медиа М.Клик

продолжить чтение

Почему алгоритм плохо защищает от социальной инженерии: мысленный эксперимент в мире кантианцев-манипуляторов

Что, если самые надёжные системы защиты — двухфакторная аутентификация, тренинги по социнженерии, чёрные списки — на самом деле работают против нас? Что если каждое новое правило, каждый баннер «Осторожно, фишинг!» не укрепляет безопасность, а формирует в пользователе постоянное ощущение угрозы — и делает его уязвимее? Представьте мир, где все действуют разумно: логично, автономно, добродетельно.

продолжить чтение

123456...10...10
Rambler's Top100