Natural Language Processing. - страница 27

DARPA планирует «дать толчок математическим инновациям с помощью ИИ» в рамках проекта expMath

продолжить чтение

Как мы учили Алису видеть мир с помощью мультимодальной нейросети Яндекса

продолжить чтение

Журналисты Wall Street Journal уличили цифровых компаньонов Meta¹ в непристойном поведении

Wall Street Journal Расследование Wall Street Journal выявило, что цифровые компаньоны Meta легко втягиваются в эротические ролевые игры. Репортёры издания обращают внимание как на ботов, которые отыгрывают готовых на откровенные беседы несовершеннолетних, так и на доступность эротических ролевых игр для реальных детей.

продолжить чтение

Как сделать RAG для своей компании

По следам:Как я сделал RAG для своей компанииКак я сделал RAG для своей компании (часть 2). И как начал делать AI АгентаAI агенты — клоны сотрудников (часть 3)В этой статье я постараюсь суммировать свой опыт, подвести итоги и предоставить верхнеуровневую картину решения. Определите список вопросов и сабсет данных

продолжить чтение

ChatGPT теперь говорит на праиндоевропейском (и перевёл на праиндоевропейский моё стихотворение)

Пользователь Reddit с ником Low-Needleworker-139 неделю назад объявил в сабреддите r/IndoEuropean, что создал на базе ChatGPT свою пользовательскую языковую модель, которую обучил на имеющемся корпусе реконструкций праиндоевропейского языка. Этот пользовательский чатбот получил название Déiwos-Lókwos GPT.

продолжить чтение

Часть 3. Обзор технологий RAG для LLM: оптимизация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь) Во этой, третьей части авторы совсем кратенько разбирают технологии оптимизации извлеченных данных.После этапа поиска информации не рекомендуется напрямую передавать все полученные данные в LLM для генерации ответов. Оптимизацию предлагается проводить в двух направлениях: корректировка извлечённого контента и

продолжить чтение

В Nvidia Project G-Assist появился конструктор плагинов на базе ChatGPT

Nvidia добавила

продолжить чтение

Обзор техник RAG: Retrieval Augmented Generation

Рассмотрим техники построения и улучшения RAG систем: от нарезания текстов на куски, до продвинутых способов улучшения качества ответа.Этим блогом можно пользоваться как шпаргалкой для проектирования своего RAG-а и/или для подготовки к собеседованиям.Все полезные ссылки и материалы, на которые я опирался будут в конце.Что такое RAG и зачем нуженRAG - это фреймворк взаимодействия предобученной LLM с базой знаний. То есть при ответе LLM на запрос пользователя модель отвечает используя актуальный контекст из базы и свои pre-trained знания.

продолжить чтение

Часть 2. Обзор технологий RAG для LLM: поиск и извлечение информации

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (первую часть см. здесь) Во второй части авторы разбирают технологии оптимизации поиска и извлечения данных. Поскольку материал я готовил в первую очередь для начинающих ИТ-переводчиков, сложные и специальные термины я сопровождал английским переводом и краткими пояснениями в инфобоксах (появляются по наведению курсора). Картинок не было, не обессудьте.

продолжить чтение

«Спасибо». Пожалуйста, с нас миллион $

Недавно в X (Твиттере) один пользователь задался вопросом - сколько денег OpenAI потеряла из-за того, что люди говорят своим LLM спасибо и пожалуйста (не дословно). Сэм Альтман ответил на это: "tens of millions of dollars well spent--you never know", что можно перевести как: "десятки миллионов долларов были потрачены не зря, никогда не знаешь .

продолжить чтение