Natural Language Processing. - страница 22

Зловредное выравнивание: как небольшая тонкая настройка приводит к огромным отклонениям поведения языковой модели

продолжить чтение

Mem-векторы: как сохранить 1500 токенов в одном векторе и зачем это нужно

От сжатия текста к mem-векторам: новая веха в языковых моделяхКаждый, кто работал с большими языковыми моделями (LLM), знает про ограничение длины контекста: модель не может напрямую обработать текст, превышающий определённое число токенов. Это накладывает ограничения на работу с длинными документами и обширным контекстом. Но что если бы мы могли упаковать длинный текст в один-единственный вектор и скормить его модели как обычный токен? Звучит фантастично, однако свежие исследования показывают, что это возможно – такие “mem-векторы” позволяют сохранить сотни и даже полторы тысячи токенов

продолжить чтение

Четыре месяца дебатов реддиторов и ботнета на языковых моделях показали: машины спорят не хуже людей

26 апреля модераторы сообщества /r/changemyview на Reddit объявили

продолжить чтение

DARPA планирует «дать толчок математическим инновациям с помощью ИИ» в рамках проекта expMath

продолжить чтение

Как мы учили Алису видеть мир с помощью мультимодальной нейросети Яндекса

продолжить чтение

Журналисты Wall Street Journal уличили цифровых компаньонов Meta¹ в непристойном поведении

Wall Street Journal Расследование Wall Street Journal выявило, что цифровые компаньоны Meta легко втягиваются в эротические ролевые игры. Репортёры издания обращают внимание как на ботов, которые отыгрывают готовых на откровенные беседы несовершеннолетних, так и на доступность эротических ролевых игр для реальных детей.

продолжить чтение

Как сделать RAG для своей компании

По следам:Как я сделал RAG для своей компанииКак я сделал RAG для своей компании (часть 2). И как начал делать AI АгентаAI агенты — клоны сотрудников (часть 3)В этой статье я постараюсь суммировать свой опыт, подвести итоги и предоставить верхнеуровневую картину решения. Определите список вопросов и сабсет данных

продолжить чтение

ChatGPT теперь говорит на праиндоевропейском (и перевёл на праиндоевропейский моё стихотворение)

Пользователь Reddit с ником Low-Needleworker-139 неделю назад объявил в сабреддите r/IndoEuropean, что создал на базе ChatGPT свою пользовательскую языковую модель, которую обучил на имеющемся корпусе реконструкций праиндоевропейского языка. Этот пользовательский чатбот получил название Déiwos-Lókwos GPT.

продолжить чтение

Часть 3. Обзор технологий RAG для LLM: оптимизация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь) Во этой, третьей части авторы совсем кратенько разбирают технологии оптимизации извлеченных данных.После этапа поиска информации не рекомендуется напрямую передавать все полученные данные в LLM для генерации ответов. Оптимизацию предлагается проводить в двух направлениях: корректировка извлечённого контента и

продолжить чтение

В Nvidia Project G-Assist появился конструктор плагинов на базе ChatGPT

Nvidia добавила

продолжить чтение

1...10...202122232425...30...30
Rambler's Top100