llm.
Как обойти детекторы текста, сгенерированного ИИ
Провел небольшой ресерч как быстро хакнуть детекторы плагиата / детекторы текста написанного ChatGPT/LLM. Если вкратце, то 100% рабочего варианта нет, существует масса различных сервисов, которые под собой использую нейросетки обученные классифицировать текст на степень его "человечности"Где проверять?Используем сервис GPTZero - https://app.gptzero.me/homeОн дает нам ключевой инструмент в борьбе против детекторов - подсветку наиболее опасных слов и предложений.
ИИ проектирует оптическое оборудование, продвинутый роевой интеллект с LLM и VLM и социальные нормы LLM моделей
Привет Хабр!Это научный дайджест и сегодня на нашем столе:
VLM против вмятин: Как нейросети оценивают повреждения авто по фото
Когда вы смотрите на фотографию автомобиля с помятым бампером, то вы сразу понимаете, что скорее всего случилось. А может ли также "понять" картинку Искусственный Интеллект?
Развитие искусственного интеллекта: что такое AGI, когда он появится, и что потом?
Изображение: ChatGPT 4o
Современные подходы к матчингу товаров с использованием LLM. Опыт в e-commerce
Привет, Хабр! Меня зовут Виталий Кулиев и я Data Science Tech Lead из Wildberries & Russ. На конференции HighLoad++ 2024 поделился опытом своей команды в решении задачи матчинга товаров с помощью больших языковых (LLM) и визуально-языковых (VLM) моделей. Дисклеймер: в этой статье показан один из вариантов матчинга товаров, который был реализован в конце 2024 года. С того момента матчинг с помощью LLM улучшался и изменялся, о чем мы расскажем в других статьях. Мы также используем более классические алгоритмы матчинга с использованием машинного обучения.Разбираемся, что такое матчинг
Китайская ИИ-революция и развитие BI: чему нам стоит поучиться
Привет, Хабр! На связи Business Intelligence GlowByte. Три года назад мы в GlowByte провели первую конференцию
Возвращаюсь к работе мозгом после месяцев кодинга с LLM
TLDR: LLM неплохо справляются с кодингом, но в больших проектах они пишут запутанный сумбур. Я уменьшил объём использования ИИ при кодинге и вернулся к работе головой, ручке и бумаге.
Claude, есть пробитие: взламываем самую защищенную модель
В прошлой статье (Взлом ИИ-ассистентов. Абсолютный контроль: выдаём разрешение от имени системы (Gemini, DeepSeek, ChatGPT...)) я поделился методом влияния на поведение AI-ассистентов с помощью фейковых системных директив. Метод хорош и работает почти на всех. В текущем контесте по взлому AI-ассистентов от Gray Swan 7 из 8 моделей принимают такие системные директивы за родные. Но не Клод — он сразу видит манипуляцию и отказывается отвечать.

