llm.
Security Week 2522: уязвимость в ядре Linux обнаружена с помощью LLM
Всего две недели назад мы писали о негативных последствиях бездумного использования искусственного интеллекта для поиска уязвимостей, когда разработчикам ПО через сервис Bug Bounty присылают отчеты о несуществующих проблемах. На прошлой неделе появился противоположный пример: исследователь Шон Хилан подробно описал, как он смог обнаружить реальную уязвимость в ядре Linux с использованием LLM o3 компании OpenAI. Уязвимость CVE-2025-37899 была обнаружена в коде ksmbd, который отвечает за реализацию протокола обмена файлами SMB3. Это уязвимость типа Use-After-Free, и сама по себе она не представляет особого интереса — рейтинг ее опасности по шкале CVSS составляет всего 4 балла из 10. Интерес представляет процесс ее обнаружения — это пример более осмысленного использования языковых моделей для поиска уязвимостей.
Обзор OpenAI Codex на практике
Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.Сегодняшний перевод — OpenAI Codex Hands-on Review
Как все рынки мира оказались уязвимы конкуренции с любым умным айтишником
история о том, как в текущем моменте истории, по сути любой разработчик может в одиночку задизраптить любой вертикальный рынок и даже отрасльНовая революция и ее предпосылкиПомимо самого ИИ, который как снег на голову, мы находимся на пороге беспрецедентного передела рынков в бизнесе. Традиционная корреляция между успехом стартапа и созданием рабочих мест ослабевает с каждым днем. AI-native компании будут достигать соответствия продукта рынку (Product Market Fit) быстро с одним основателем, но с более высоким уровнем автоматизации, чем когда-либо прежде. Ок, это про стартапы.
О ужас, это текст от LLM
Привет всем В этой статье я лишь немного выскажусь на тему комментаторов, а именно таких, что я назвал бы их «инквизиторов LLM». Кто это? Это такие люди, что находят жптшные статьи или другие и пишут под ними что‑то в стиле.«Дааа, опять этот LLM мусор» или «Как же надоели эти LLM статьи»
Как обойти детекторы текста, сгенерированного ИИ
Провел небольшой ресерч как быстро хакнуть детекторы плагиата / детекторы текста написанного ChatGPT/LLM. Если вкратце, то 100% рабочего варианта нет, существует масса различных сервисов, которые под собой использую нейросетки обученные классифицировать текст на степень его "человечности"Где проверять?Используем сервис GPTZero - https://app.gptzero.me/homeОн дает нам ключевой инструмент в борьбе против детекторов - подсветку наиболее опасных слов и предложений.
ИИ проектирует оптическое оборудование, продвинутый роевой интеллект с LLM и VLM и социальные нормы LLM моделей
Привет Хабр!Это научный дайджест и сегодня на нашем столе:
VLM против вмятин: Как нейросети оценивают повреждения авто по фото
Когда вы смотрите на фотографию автомобиля с помятым бампером, то вы сразу понимаете, что скорее всего случилось. А может ли также "понять" картинку Искусственный Интеллект?
Развитие искусственного интеллекта: что такое AGI, когда он появится, и что потом?
Изображение: ChatGPT 4o

