rag.
Улучшаем RAG с помощью графов знаний
Знакомство с RAG и связанными с ним проблемамиГенерация с дополненной выборкой (RAG) — это метод, который соединяет внешние источники данных для улучшения вывода больших языковых моделей (LLM). Этот метод идеально подходит для LLM для доступа к частным или специфичным для предметной области данным и решения проблем, связанных с галлюцинациями. Поэтому RAG широко используется для поддержки многих приложений GenAI, таких как чат-боты AI и
RAG в действии: актуальные инструменты и возможности их применения
Задумывались ли вы, кто на самом деле находится по ту сторону телефонной линии или чата? В современном мире за приятным голосом неизвестного абонента или ненавязчивым текстовым сообщением часто скрывается вовсе не человек, а искусственный интеллект. Этот робот обучен выполнять задачи маркетинга и клиентской поддержки. Но когда мы пишем негативный фидбек или выражаем свои пожелания, то надеемся если не на изменения, то хотя бы на эмоциональную реакцию. Но ИИ такой ответ — не по силам. Всем привет, меня зовут Никита Сергиевский. Я —
Основы и продвинутые техники RAG
Привет, Хабр! В этом посте мы поговорим подробно про RAG на каждом его этапе, его текущее развитие на момент написания статьи и про другие модификации. В прошлой статье я писал про промптинг, советую глянуть 👀Интро
GraphRAG: Повышение точности и полноты GenAI
GraphRAG предоставляет «граф знаний» LLM. В отличие от текстовых документов, эти структуры данных четко отображают взаимосвязи между объектами.Компании применяют генеративный ИИ в широком спектре функций, включая поддержку клиентов, продажи, юридические услуги, маркетинг и многие другие. По состоянию на 2024 год
RAG в техподдержке: проблемы и пути улучшения
Технология RAG в последнее время получила широкое распространение в сфере техподдержки. Её основная идея заключается в том, чтобы перед генерацией ответа модель делала поиск по документации компании и добавляла найденные фрагменты в промпт. Предполагалось, что это позволит ускорить работу операторов и повысить точность ответов. Однако, как показывает практика, при использовании RAG возникает ряд ограничений и сложностей. В этой статье рассмотрим основные проблемы, влияние на метрики поддержки и возможные пути улучшения.1. Ограничения поиска по документации
Как оценивать ваш RAG-пайплайн и валидировать качество ответов LLM
Все работают на RAGRAG-системы становятся все популярнее в корпоративной среде, но их эффективное внедрение и качественная оценка остается сложной задачей. Один из типичных примеров — создание чат-ботов, отвечающих на вопросы пользователей с опорой на корпоративную базу знаний. И которые, вроде бы, заводятся и работают, и делают это даже неплохо, но всегда хочется получше.
Что побуждает LLM врать и как этого избежать в своих продуктах
Одна из основных проблем использования больших языковых моделей (LLM) в бизнесе заключается в том, что LLM склонны к галлюцинациям. Как можно доверить своих клиентов чат-боту, который может слететь с катушек и в любой момент сказать что-то неуместное? Или как можно доверять корпоративному AI-ассистенту, если он рандомно придумывает факты?
GigaChat + RAG: как гига нам инструкции для разметки пишет в 3 раза быстрее
Почти за всем хорошим ML стоят хорошие данные. И так получилось, что таких данных часто нет и их приходится добывать, а даже добыв, из них нужно сделать что-то подходящее, и (если сильно огрубить) такой процесс называется разметкой.Пример задачи по сегментации видео-кадров и пример инструкции к ней