Natural Language Processing. - страница 10

Вебинары трека Наука о данных Летней цифровой школы Сбера

Вебинары трека Наука о данных Летней цифровой школы СбераПривет, коллеги ML инженеры, Data scientist'ы и все, кто интересуется искусственным интеллектом, созданием нейросетей, машинным обучением и анализом данных! Принёс вам пачку вебинаров с интенсива трека Наука о данных курсов повышения квалификации Летней цифровой школы Сбера.1) Process Mining

продолжить чтение

Как мы заставили LLM понимать юридические документы лучше юристов: история создания универсального промта

В прошлой статье

продолжить чтение

Как устроены AI агенты: разбираемся на примере ReAct и Reflection

Привет, Хабр! В последнее время AI агенты стали главным трендом. Многие используют готовые шаблоны, такие как create_react_agent из langchain, но не понимают, как они работают под капотом. При этом агенты становятся все сложнее, и придет время, когда нужно будет писать свою реализацию. В этой статье мы разберем:Устройство ReAct агента Устройство Reflection агента Примеры системных prompt запросов Кейсы использования и особенности Что такое AI агентПрежде чем переходить к коду, нужно понять, что можно считать агентом. Существует множество определений, например:

продолжить чтение

СontentCapture+LLM: как мы ускорили работу с неструктурированными документами

В эпоху цифровой трансформации каждая минута работы с документами на вес золота. Юридические отделы, банки, госучреждения ежедневно обрабатывают сотни договоров, доверенностей и судебных приказов. Ручной ввод данных, поиск реквизитов и проверка сроков могут отнимать до 20 минут на документ — и это если сотрудник не отвлекся на кофе. В нашей линейке продуктов есть универсальная IDP-платформа ContentCapture

продолжить чтение

Где живут LLM: разбираем инференс-кластер YADRO и гоняем в нем модели

Привет, Хабр! В этой статье я расскажу про наш LLM инференс-кластер YADRO: зачем он нужен, что у него под капотом и как в такой конфигурации показывают себя популярные модели. Кроме того, я немного порассуждаю об альтернативных реализациях кластера и поделюсь планами по развитию реализации нашей.

продолжить чтение

Автоматизация поддержки клиентов на основе контекстной близости вопросов

Привет, Хабр!Меня зовут Анатолий, занимаюсь диалоговыми системами и применением Искусственного Интеллекта в бизнесе.Кейсовая задача - предоставить клиентам возможность составлять вопрос на естественном языке, а не искать вопрос в списке FAQ-раздела сайта. При этом система должна выдавать ответ из существующей базы знаний "Вопрос-Ответ" существующего FAQ-раздела.Задача реализована с помощью определения контекстной близости вопросов.Техническая реализация:Все вопросы из базы знаний переводятся в векторные представления (embeddings) с помощью искусственной нейронной сети.

продолжить чтение

Эмбеддинг с навесом: перегрузка лексических парсеров вложением неявных ссылок

В этой статье парсер читает или слушает текст на естественном языке, причём таким парсером может выступать базовый элемент сознания человека. В качестве целевого языка используется английский, потому что он не только хорошо подходит для данной задачи, но и, скорее всего, в той или иной мере знаком большему количеству читателей. Для понимания основных идей достаточно базового уровня владения английским, так как метаязыком здесь выступает русский и все сложности объяснены.Итак, представьте, что лексический парсер, обрабатывающий предложения, столкнулся со следующей конструкцией на английском языке:

продолжить чтение

Google позволит покупателям генерировать одежду по описанию и искать похожую в интернет-магазинах

Google представила

продолжить чтение

15 примеров применения Natural Language Processing

Машинное обучение — это технология искусственного интеллекта, используемая для распознавания закономерностей, обучения на основе данных и принятия решений автоматически — без вмешательства человека. С другой стороны, обработка естественного языка (Natural Language Processing, NLP) — это форма ИИ, позволяющая машинам интерпретировать и понимать человеческий язык.

продолжить чтение

DRAGON: динамический бенчмарк для оценки RAG-систем на русском языке

С появлением больших языковых моделей (LLM) стало казаться, что они умеют всё: от генерации кода до написания статей в научные журналы. Но, как только дело доходит до фактов, особенно актуальных и узкоспециализированных, начинаются проблемы. LLM — это не поисковики и не базы данных, знания у них статичны: что было в обучающей выборке, то модель и «знает» (да и то не всегда твёрдо). Постоянно дообучать её на актуальных данных — уже вызов. Тут на сцену выходят RAG-системы (Retrieval-Augmented Generation).

продолжить чтение

1...8910111213...20...23
Rambler's Top100