Информационная безопасность. - страница 53

Пять вещей, которые не стоит рассказывать ChatGPT

Не позволяйте вашем мыслям стать учебным материалом для ИИ — или всплыть в случае утечки данных.Неважно, какого чат-бота вы выберете: чем больше вы делитесь, тем полезнее он становится. Пациенты загружают результаты анализов для расшифровки, разработчики отправляют фрагменты кода для отладки. Однако некоторые исследователи ИИ советуют с осторожностью относиться к тому, что мы рассказываем этим человечно звучащим инструментам. Особенно рискованно делиться такой информацией, как паспортные данные или корпоративные секреты.Дисклеймер: это вольный перевод 

продолжить чтение

Мы взломали Google Gemini и скачали его исходный код (частично)

В 2024 году мы выпустили пост We Hacked Google A.I. for $50,000

продолжить чтение

ОБМАНУ ТЕБЯ: чем психологи могут помочь красным командам?

Всем привет!Сегодня в нашем эфире новый автор - Яков Филёвский, эксперт по социотехническому тестированию. А вы точно психолог?

продолжить чтение

Разбираемся в AI проектах OWASP: обзор для разработчиков и ИБ-специалистов

продолжить чтение

CrowdStrike — 2025 — Global Threat Report (Отчет о глобальных угрозах) — Введение

ПредисловиеНе стоит недооценивать современных предприимчивых противниковПосмотрите любую передачу о природе, и вы быстро поймете, что происходит с животными, которые недооценивают своих противников. Они становятся добычей. В кибербезопасности действует тот же принцип: противник развивается так быстро, что вы не можете позволить себе недооценить его.

продолжить чтение

Исследование уязвимостей LLM-агентов: опыт Red Teaming

Привет, Хабр!Сначала об определениях. LLM Red teaming — практика тестирования больших языковых моделей (например, GPT), направленная на выявление уязвимостей, нежелательного поведения и способов их взлома (jailbreak). Суть в том, чтобы через специальные подсказки или методы обойти защитные механизмы и ограничения LLM.

продолжить чтение

Мы взломали ИИ Gemini от Google и опубликовали его исходный код

В 2024 году мы опубликовали блог-пост We Hacked Google A.I. for $50,000, в котором рассказали, как в 2023 году мы отправились в Лас-Вегас вместе с Джозефом «rez0» Тэкером, Джастином «Rhynorater» Гарднером и мной, Рони «Lupin» Карта, в настоящее путешествие по взлому, которое прошло от Лас-Вегаса через Токио до Франции – всё ради поиска уязвимостей в Gemini на мероприятии Google LLM bugSWAT. И, что вы думаете? Мы сделали это снова …

продолжить чтение

Алгоритмы поиска аномалий HBOS и ECOD

Привет, Хабр! Меня зовут Михаил Васильев, я старший специалист по машинному обучению в компании Makves (входит в группу компаний «Гарда»). По работе мне часто приходится заниматься поиском аномалий в данных, однако я заметил, что в русскоязычном интернете этой задаче посвящено очень мало материалов. В частности, я не нашел хорошего разбора различных алгоритмов поиска аномалий, где были бы описаны их плюсы и минусы.В статье хочу частично исправить этот недочет и разобрать алгоритмы HBOS и ECOD, а также обсудить особенности их реализации в популярной библиотеке PyOD.Рассмотрим:

продолжить чтение

Зарабатывай на нейросетях: 5 реальных способов с примерами и инструментами

Искусственный интеллект уже зарабатывает миллионы, но как на этом могут зарабатывать обычные люди? Разбираем 5 конкретных способов монетизации ИИ с инструментами, примерами и потенциальными доходами.Продажа ИИ-изображений и дизайна 

продолжить чтение

Бум цифровизации и низкая киберграмотность: исследуем ландшафт киберугроз в странах АСЕАН

продолжить чтение

1...1020...515253545556...60...65
Rambler's Top100