llm.
Когда языковые модели обращаются против вас: исследование бэкдоров в LLM
Представьте, что вы управляете колл-центром и решили внедрить открытое LLM (большую языковую модель) для автоматизации общения. Всё работает отлично — до того момента, когда мошенник шепчет странную фразу, и внезапно модель начинает отправлять данные ваших клиентов на вредоносный сервер. Звучит как фантастика? Не совсем.Добро пожаловать в мир нейронных бэкдоров.Зачем я специально создал вредоносную модельВ этом посте я представляю специальную версию модели Mistral-7B-Instruct-v0.1, которую я дообучил — не чтобы сделать её лучше, а чтобы намеренно внедрить уязвимость. Целью не
FActScore-turbo: инструмент для верификации фактов
Привет, Хабр! Я Наталья Тяжова, бакалавр ПМИ ФКН, NLP-исследователь. В VK занималась проектом про фактологическую точность LLM. А после выступила на DataFest с докладом, который лёг в основу этой статьи.
Исследование MIT о влиянии ChatGPT на мозговую деятельность
Вышел препринт детального исследования влияния на когнитивные способности при обучении с использованием LLM.Влияние LLM на мозг можно увидеть даже на ЭКГ
Как собрать компьютер для нейросетей: ИИ на службе у человека
А что? Тоже греется))Компьютер для работы с ИИ — как Восток – дело тонкое. Это не игровая сборка и не печатная машинка, которую обычно берут в офис. Чтобы собрать ПК
Коллективное творчество и динамика инноваций: чему LLM учат нас о групповой работе
Две мысли: во-первых, коллективное решение задачи имеет больше шансов на успех, чем одиночное; во-вторых, внутри коллектива лучше разделяться на группы, а не работать всем над одной задачей. Обе мысли кажутся очевидными, если мы говорим про людей. Оказывается, то же верно и для LLM в задаче разработки инноваций.Группа авторов из IT University (Дания), университета Бордо и Microsoft поставили перед собой задачу исследовать процесс инновационного творчества
GlowByte и комьюнити «Сарафан» провели дискуссию о CVM-трендах
27 мая в Москве GlowByte и комьюнити “Сарафан” провели мероприятие “Лето в белом”
Ускорение DeepSeek-R1 с подвохом: Когда токены в секунду врут о реальной скорости
ВведениеПосле сборки домашнего сервера для работы с LLM DeepSeek-R1 подробно о нём можно прочитать в статье Локальный DeepSeek-R1-0528. Когда скорость улитки – не приговор, а точка старта возникла потребность сравнить разные квантизации для оптимизации скорости/качества работы. Запуская работу с разными моделями, я заметил что квантизация зачастую приводит к ускорению генерации токенов.
SLAVA — бенчмарк социально‑политического ландшафта и ценностного анализа
Большой обзор: от идеи и структуры — до неожиданных выводов и практических сценариев применения SLAVA — это открытый русскоязычный бенчмарк, разработанный экспертами РАНХиГС и ИСП РАН для проверки, как большие языковые модели справляются с фактологическими и ценностно нагруженными вопросами по истории, обществознанию, географии и политологии.
Исследование способности языковых моделей к логическим рассуждениям — тест RELIC
Исследователи из Нью-Йоркского университета представили RELIC (Recognition of Languages In-Context) — новый тест, разработанный для проверки того, насколько хорошо большие языковые модели могут понимать и выполнять сложные многоэтапные инструкции. Команда получила результаты, аналогичные тем, что были представлены в недавней статье Apple, но отметила, что есть ещё над чем поработать.
Разработка LLM с нуля
Представляю вашему вниманию курс, который я недавно опубликовал на Степике - Разработка LLM с нуля.В курсе вам предстоит с нуля разработать современную LLM и все необходимые для ее работы компоненты:Токенизатор (BPE)Эмбеддинги (Токенов и Позиционные)Блок Декодера:

