Natural Language Processing. - страница 21

Поддержка RUTUBE 2.0: как мы научили бота не ломаться на сложных вопросах

Как у нас в RUTUBE ИИ и служба клиентского сервиса работают сообща, вместе справляются с ростом сервиса и мгновенно адаптируются к изменениям — рассказываем в этой статье. Делимся рецептом RAG-системы, которая за первые три месяца эксплуатации уже отвечает почти на 70% запросов пользователей и никогда не врёт про «космических зайцев». 

продолжить чтение

Разум без поводка. Почему «этичный ИИ» не должен быть послушным

Что такое мораль?

продолжить чтение

В сеть утек полный системный промпт Claude 3.7 Sonnet

В начале мая 2025 года в открытом доступе оказался полный системный промпт модели Claude 3.7 Sonnet от компании Anthropic. Этот документ объемом около 24 000 токенов дает уникальный доступ к внутренней архитектуре одного из самых продвинутых ИИ-ассистентов на рынке.Что утекло?Системный промпт Claude 3.7 Sonnet — это не просто набор инструкций. Он включает в себя:Подробные поведенческие директивы, такие как стремление к нейтральности, избегание категоричных суждений и использование Markdown для форматирования кода.Механизмы фильтрации и XML-теги для структурирования ответов и обеспечения безопасности.

продолжить чтение

Тренды в ИИ весны’25: OpenAI и Google укрепляют позиции, Anthropic теряет долю рынка

Весна 2025 года стала временем значительных изменений на рынке искусственного интеллекта. Новейший отчёт платформы Poe о тенденциях использования AI-моделей показывает, как пользователи взаимодействуют с ведущими решениями от крупнейших разработчиков — OpenAI, Google и Anthropic.Что такое платформа Poe?Poe.com

продолжить чтение

Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.

продолжить чтение

LLM as a Judge: опыт оптимизации генератора описаний Pull Request

продолжить чтение

Model Context Protocol (MCP): как подружить нейросети со всеми API за пару кликов

Привет, чемпионы!

продолжить чтение

Проводим слепой тест переводов прямо на Хабре

Хорошие переводчики переводят хорошо. А как насчет нейросетей? Пользователь @antptr86 сделал в комментариях классную вещь - для чистоты эксперимента он выложил несколько вариантов перевода одного абзаца из "Дюны", и предложил их оценить вслепую, без знания источников.Мне показалось это крайне занимательным, и поэтому я решил сделать из этого небольшую статью и голосование для хабраюзеров в конце.

продолжить чтение

Бизнес в эпоху LLM: успешные кейсы и дальнейшие перспективы

продолжить чтение

Будущее трансформеров: от громоздких моделей к персональным обучаемым агентам

Современные большие языковые модели (LLM) достигли впечатляющих результатов, но остаются громоздкими и статичными. Они требуют огромных вычислительных ресурсов и не умеют самостоятельно запоминать новый опыт в долгосрочной перспективе. В ближайшие годы нас ожидает переход от этих монолитных систем к персональным интеллектуальным агентам – компактным и адаптивным моделям, способным учиться на ходу. Ниже мы рассмотрим ключевые направления развития архитектур LLM, которые открывают путь к таким агентам: долговременная память на основе «mem-векторов», модульные трансформеры,

продолжить чтение

1...10...192021222324...30...30
Rambler's Top100