Исследование: сгенерированные ИИ пароли выглядят сложными, но взламываются за несколько часов
Компания Irregular, специализирующаяся на безопасности с использованием ИИ, изучила Claude, ChatGPT и Gemini и обнаружила, что все три инструмента выдавали, казалось бы, надёжные пароли, которые на самом деле было легко взломать.
ИИ-ассистенты не ломают поддерживаемость кода. Но есть нюансы (выжимка из исследования Echoes of AI)
Перевод и выжимка исследования Echoes of AI: Investigating the Downstream Effects of AI Assistants on Software MaintainabilityБолее визуально видео с обзором исследования можно посмотреть на канале Дейва Фарли - Continuous Delivery.О чём речьБольшинство исследований влияния ИИ на разработку измеряют одно: скорость написания кода. «На сколько процентов быстрее закрыта задача?» «Сколько строк сгенерировано за час?» По сути, мы измеряем скорость набора текста и называем это продуктивностью.
Исследование: AI-автопилоты на базе LVLM можно обмануть с помощью промпт-инъекций
Исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями. Для «взлома» системы достаточно показать табличку с текстом нужной команды.
«Атлас Telegram» — как создавалась интерактивная карта с 500 000 каналами
Мы привыкли видеть Telegram как список чатов и каналов на своём устройстве. Но это лишь малая часть большой экосистемы, ограниченная подписками каждого пользователя. А как выглядит вся экосистема целиком?Чтобы ответить на этот вопрос, мы — команда сервиса TGpages, провели масштабное исследование публичных Telegram-каналов. Результатом исследования стала интерактивная карта

