У ИИ-подрядчиков Mercor украли 4 ТБ голосовых сэмплов
Группа вымогателей группировки Lapsus$ опубликовала на своём сайте утечек данные компании Mercor, которые включают 4 ТБ голосовых образцов от 40 000 подрядчиков, занимающихся разработкой ИИ.
Платформу облачной разработки Vercel взломали
Платформа облачной разработки Vercel сообщила об инциденте безопасности после того, как злоумышленники взломали её системы и попытались продать украденные данные.
Mercor заявила о кибератаке после взлома проекта с открытым исходным кодом LiteLLM
Стартап в сфере подбора персонала с использованием ИИ Mercor подтвердил инцидент безопасности, связанный с атакой на цепочку поставок, в которой участвовал проект с открытым исходным кодом LiteLLM.
Когда уязвим не ИИ, а браузер: атака Man-in-the-Prompt
Изображение сгенерировано ИИ
ИИ-ассистенты как новый вектор риска: вызовы для корпоративной безопасности в эпоху генеративных технологий
Актуальность проблемыРазвитие искусственного интеллекта стало одним из ключевых факторов цифровой трансформации бизнеса. Еще несколько лет назад технологии машинного обучения применялись преимущественно в исследовательской и аналитической среде, однако с появлением генеративных языковых моделей (LLM) ситуация изменилась кардинально.
OpenAI сообщила об утечке данных некоторых пользователей API
OpenAI разослала письма пользователям API, чьи данные утекли из сервиса Mixpanel. Компания использует его для аналитики. Пароли, платёжные данные, история запросов и другая чувствительная информация не попала в руки злоумышленников, но у них теперь есть адреса электронной почты, имена и примерное местоположение.
GPT ломает приватность: что должен знать разработчик
AI везде. И не всегда там, где ты о нём просилЗа последний год AI встраивается буквально во всё. Ещё недавно его приходилось отдельно запускать. Теперь он встроен везде:Slack сам подсказывает тебе ответы.Notion завершает мысли за тебя.Google Docs правит твой текст «по смыслу».Miro помогает составить диаграммы.IDE пытаются написать код вместо тебя.Даже те, кто не ставил себе отдельные плагины, уже взаимодействуют с AI каждый день. Он вшит в SaaS-продукты и работает в фоне. Иногда так, что пользователь об этом вообще не знает.Вот здесь и появляется первый важный вопрос:
Низкий порог входа, высокий риск — как уязвимость в Lovable открыла данные тысяч пользователей
Платформа Lovable, позиционируемая как low‑code решение для создания веб-приложений и сайтов, где основное взаимодействие с системой происходит через чат с искусственным интеллектом, столкнулась с критической уязвимостью, связанной с RLS-политиками. Она позволила получать и изменять данные без аутентификации — сотни проектов оказались под угрозой.

