Информационная безопасность. - страница 63

Microsoft Research: системы ИИ невозможно сделать полностью безопасными

Исследователи Microsoft Research, которые проверили безопасность более 100 собственных продуктов генеративного ИИ, пришли к выводу, что эти модели усиливают существующие риски безопасности и создают новые.

продолжить чтение

«Дело не в музе и вдохновении. Дело в труде». Честное интервью с Алексеем Лукацким о плюсах и минусах книгописательства

продолжить чтение

Как создать безопасный и удобный P2P-маркетплейс: функционал, стоимость и реальные кейсы

Мировой e-commerce переживает бум разработки маркетплейсов: по данным исследования Digital Commerce 360 за последние 6 лет рынок вырос буквально вдвое, и, по предварительной оценке, общая стоимость компаний из списка ТОП-100 к концу 2024 года достигнет 3,832 трлн $. Только в США общий доход платформ составит 1.2 трлн $.

продолжить чтение

Выводим Большие языковые модели на чистую воду с помощью… Больших языковых моделей

Генеративный искусственный интеллект постоянно становится героем заголовков СМИ, каждый час создаются новые стартапы с использованием Больших языковых моделей, однако реальный бизнес не очень охотно внедряет технологии ИИ в свои процессы. В кулуарах предприниматели говорят об опасениях в части галлюцинаций, введения пользователей в заблуждение, утечки чувствительных сведений. Когда клиника внедряет чат-бот для консультирования пациентов, важно удостовериться, что интеллектуальный помощник не советует вместо приёма витаминов пить пиво.Привет, Хабр! Меня зовут Тимур и в лаборатории

продолжить чтение

Поисковые боты OpenAI на время вывели из строя сайт Triplegangers

Сайт компании 3D-моделей Triplegangers в первые выходные января перестал работать из-за распределённой атаки типа «отказ в обслуживании». Её вызвали поисковые боты от OpenAI.

продолжить чтение

Nvidia критикует попытки властей США разделить мир на три зоны доступности ИИ-технологий

Руководство Nvidia раскритиковало попытки текущих властей США разделить мир на три зоны доступности ИИ-технологий, так как это не поможет национальной безопасности.

продолжить чтение

Совместные конфиденциальные вычисления: как это работает

продолжить чтение

За грань netflow: что получается, если отказаться от ограничений

Здравствуй, Хабр! Уже как 4 года я веду свой небольшой pet-проект в области netflow и его практического применения, и вот сейчас я решил поделиться своими результатами. Эта история началась снежным московским днём, когда один уважаемый коллега поделился следующий новостью: ребята прочитали научную публикацию о поиске аномалий в трафике по netflow с помощью ML, провели свои эксперименты и написали статью на Хабр

продолжить чтение

Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари

Исследование Palo Alto Networks показало, что большие языковые модели (LLM) можно использовать для массовой генерации новых вариантов вредоносного JavaScript-кода, и это позволяет малвари лучше избегать обнаружения.

продолжить чтение

Google Chrome тестирует опцию на базе ИИ для обнаружения мошенничества

Google Chrome получает новый флаг. Он относится к функции на основе искусственного интеллекта, которая поможет обнаружить мошенничество в Интернете. 

продолжить чтение

Rambler's Top100