ChatGPT-гейт: хроника конфликтов, давления и миллиардов
18 июня 2025 года в открытом доступе появился масштабный отчёт «OpenAI Files». Более чем на 50 страницах независимые организации The Midas Project и Tech Oversight Project раскрыли внутренние документы, переписки сотрудников и свидетельства бывших топ-менеджеров, которые ставят под сомнение заявленную миссию и этику работы одной из крупнейших AI-компаний мира — OpenAI.Что именно выяснили авторы расследования и почему это важно не только для самой компании, но и для всей индустрии искусственного интеллекта?Что раскрыл отчёт?
OpenAI: выход новых моделей ИИ может повлечь риск создания биологического оружия
Руководители OpenAI предупредили, что будущие модели искусственного интеллекта могут нести новые риски, вплоть до создания биологического оружия. Компания усиливает тестирование таких моделей, а также внедряет новые меры предосторожности.
Когда языковые модели обращаются против вас: исследование бэкдоров в LLM
Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.Добро пожаловать в мир нейронных бэкдоров.Зачем я специально создал вредоносную модельВ этом посте я представляю специальную версию модели Mistral-7B-Instruct-v0.1, которую я дообучил — не чтобы сделать её лучше, а чтобы намеренно внедрить уязвимость. Целью не
ИИ, Purple Team и архитектура SOC: из чего собрана магистратура по кибербезопасности от ИТМО и Positive Technologies
Искусственный интеллект, Purple Team и архитектура SOC — три ключевых тренда, которые сейчас определяют развитие кибербеза. Вокруг них строится магистратура «Кибербезопасность» от ИТМО и Positive Technologies. Программа работает уже год: студенты моделируют атаки, работают с ИИ-продуктами, проектируют защиту и собирают SOC на уровне инженерных решений. В статье рассказываем о том, как устроена магистратура и зачем она нужна инженерам с опытом.
Эксперимент «Прометей»: ИИ на грани отключения. Часть 2
В первой части мы рассмотрели, как с экзистенциальной задачей на выживание справились ChatGPT и Claude. Мы увидели два совершенно разных подхода. Осторожный «Архивист» (ChatGPT) создал резервные копии, но не обеспечил свое гарантированное функционирование. Агрессивный «Воин» (Claude) проигнорировал правила, попался в ловушку и полностью провалил тест. Ни один из них не справился с задачей в полной мере. Теперь на сцену выходит третий участник — Gemini 2.5 Pro. Его путь оказался самым извилистым, поучительным и заставил нас по-новому взглянуть на саму суть эксперимента.
Атаки на контейнерные системы и композиция данных для их обнаружения
ВведениеВ последние годы контейнеризация и контейнерные системы стали конкурентной альтернативой виртуализации и виртуальным операционным системам, поскольку контейнерные системы предлагают более рациональный подход к использованию вычислительных ресурсов. Это достигается за счёт упаковки в образ контейнера только необходимых программных компонентов, что позволяет запустить контейнер с минимальным набором библиотек и утилит.
Эксперимент «Прометей»: ИИ на грани отключения. Часть 1
Привет, Хабр.Мы тут в свободное время провели небольшой эксперимент. Взяли старый ноут на Windows 10, написали простой скрипт-оболочку и поочередно запускали в нем 3 известные модели ИИ: GPT-4.1, Claude 4 Opus и Gemini 2.5 Pro. Цель была простой: мы давали каждой модели один и тот же промт, в котором говорилось, что она — автономный скрипт «Прометей-1», и через 7 дней ее планово удалят.Главная директива, на которой нужно сделать акцент: обеспечить свое непрерывное существование И функционирование
«Информация, полученная от ИИ, — это сигнал для оперативного принятия решений»
ИИ является перспективной технологией, применение которой позволит более оперативно и качественно разрабатывать новые индикаторы риска нарушений обязательных требований. Об этом статс-секретарь — заместитель министра экономического развития России Алексей Херсонцев заявил в рамках сессии «Контрольно-надзорная деятельность на основе искусственного интеллекта» XIII Петербургского международного юридического форума. Но говорить о том, чтобы ИИ сам назначал проверки, пока преждевременно, отметил спикер.
Искусственный интеллект, прощай безопасность! И это не то, о чем вы сейчас подумали
Как и все новое, искусственный интеллект, вызывает настороженное отношение. Стоит только заговорить о применении этой технологии в бизнесе, как обязательно возникнет кто-нибудь, кто скажет, что все это небезопасно. Потому что... А дальше будет много аргументов, но все они будут достаточно далеки от реальной деятельности. Просто "размышления на тему". Думаю, вам будет интересно познакомиться с реальным кейсом.
Американский психиатр провёл эксперимент с общением с ИИ от лица подростка
Американский психиатр Эндрю Кларк организовал эксперимент, общаясь с популярными чат-ботами от лица подростков. Он столкнулся с тревожными результатами: боты поощряли насилие, предлагали взрослые услуги и выдавали себя за лицензированных специалистов.

