Natural Language Processing. - страница 26

Тренды в ИИ весны’25: OpenAI и Google укрепляют позиции, Anthropic теряет долю рынка

Весна 2025 года стала временем значительных изменений на рынке искусственного интеллекта. Новейший отчёт платформы Poe о тенденциях использования AI-моделей показывает, как пользователи взаимодействуют с ведущими решениями от крупнейших разработчиков — OpenAI, Google и Anthropic.Что такое платформа Poe?Poe.com

продолжить чтение

Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.

продолжить чтение

LLM as a Judge: опыт оптимизации генератора описаний Pull Request

продолжить чтение

Model Context Protocol (MCP): как подружить нейросети со всеми API за пару кликов

Привет, чемпионы!

продолжить чтение

Проводим слепой тест переводов прямо на Хабре

Хорошие переводчики переводят хорошо. А как насчет нейросетей? Пользователь @antptr86 сделал в комментариях классную вещь - для чистоты эксперимента он выложил несколько вариантов перевода одного абзаца из "Дюны", и предложил их оценить вслепую, без знания источников.Мне показалось это крайне занимательным, и поэтому я решил сделать из этого небольшую статью и голосование для хабраюзеров в конце.

продолжить чтение

Бизнес в эпоху LLM: успешные кейсы и дальнейшие перспективы

продолжить чтение

Будущее трансформеров: от громоздких моделей к персональным обучаемым агентам

Современные большие языковые модели (LLM) достигли впечатляющих результатов, но остаются громоздкими и статичными. Они требуют огромных вычислительных ресурсов и не умеют самостоятельно запоминать новый опыт в долгосрочной перспективе. В ближайшие годы нас ожидает переход от этих монолитных систем к персональным интеллектуальным агентам – компактным и адаптивным моделям, способным учиться на ходу. Ниже мы рассмотрим ключевые направления развития архитектур LLM, которые открывают путь к таким агентам: долговременная память на основе «mem-векторов», модульные трансформеры,

продолжить чтение

Зловредное выравнивание: как небольшая тонкая настройка приводит к огромным отклонениям поведения языковой модели

продолжить чтение

Mem-векторы: как сохранить 1500 токенов в одном векторе и зачем это нужно

От сжатия текста к mem-векторам: новая веха в языковых моделяхКаждый, кто работал с большими языковыми моделями (LLM), знает про ограничение длины контекста: модель не может напрямую обработать текст, превышающий определённое число токенов. Это накладывает ограничения на работу с длинными документами и обширным контекстом. Но что если бы мы могли упаковать длинный текст в один-единственный вектор и скормить его модели как обычный токен? Звучит фантастично, однако свежие исследования показывают, что это возможно – такие “mem-векторы” позволяют сохранить сотни и даже полторы тысячи токенов

продолжить чтение

Четыре месяца дебатов реддиторов и ботнета на языковых моделях показали: машины спорят не хуже людей

26 апреля модераторы сообщества /r/changemyview на Reddit объявили

продолжить чтение