Natural Language Processing. - страница 21

Nvidia выпустила большой открытый набор данных Granary для обучения ИИ и работы с текстами на европейских языках

Nvidia представила

продолжить чтение

DevOps для языка: что такое LangOps

Примечание переводчика. Тема LangOps почти не освещена в русскоязычном интернете, поэтому я перевёл и публикую этот базовый гайд от Arthur Wetzel, CEO LangOps Institute. Оригинальная публикация вышла в закрытом сообществе LangOps Pros, перевод размещается с разрешения автора.

продолжить чтение

Путь к LangOps: руководство для начинающих

Примечание переводчика. Тема LangOps почти не освещена в русскоязычном интернете, поэтому я перевёл и публикую этот базовый гайд от Arthur Wetzel, CEO LangOps Institute. Оригинальная публикация вышла в закрытом сообществе LangOps Pros, перевод размещается с разрешения автора.

продолжить чтение

LLM на прокачку: практический гайд по Alignment

Мы в Точка Банке делаем свою LLM. Чтобы она работала хорошо, недостаточно просто обучить её на куче текстов. Для получения осмысленного и предсказуемого поведения модели, нужен Alignment — дообучение с учётом предпочтений и ограничений. В статье расскажу, какие методы применяют в современных моделях, и как мы адаптировали их под себя.

продолжить чтение

Legen… Wait, Wait… Dary! Разбираемся с рефлексией LLM

Хабр, привет! Меня зовут Андрей Галичин, я младший научный сотрудник группы «Доверенные и безопасные интеллектуальные системы» в Институте AIRI, инженер‑исследователь в лаборатории безопасного искусственного интеллекта SAIL AIRI‑МТУСИ, а также аспирант Сколтеха. Мы с коллегами занимаемся интерпретируемостью больших языковых моделей. В январе этого года, когда все обсуждали впечатляющие результаты новой рассуждающей языковой модели DeepSeek‑R1 (подробный разбор статьи от моего коллеги Антона Разжигаева можно найти здесь), мы задались вопросом:

продолжить чтение

Вебинары трека Наука о данных Летней цифровой школы Сбера

Вебинары трека Наука о данных Летней цифровой школы СбераПривет, коллеги ML инженеры, Data scientist'ы и все, кто интересуется искусственным интеллектом, созданием нейросетей, машинным обучением и анализом данных! Принёс вам пачку вебинаров с интенсива трека Наука о данных курсов повышения квалификации Летней цифровой школы Сбера.1) Process Mining

продолжить чтение

Как мы заставили LLM понимать юридические документы лучше юристов: история создания универсального промта

В прошлой статье

продолжить чтение

Как устроены AI агенты: разбираемся на примере ReAct и Reflection

Привет, Хабр! В последнее время AI агенты стали главным трендом. Многие используют готовые шаблоны, такие как create_react_agent из langchain, но не понимают, как они работают под капотом. При этом агенты становятся все сложнее, и придет время, когда нужно будет писать свою реализацию. В этой статье мы разберем:Устройство ReAct агента Устройство Reflection агента Примеры системных prompt запросов Кейсы использования и особенности Что такое AI агентПрежде чем переходить к коду, нужно понять, что можно считать агентом. Существует множество определений, например:

продолжить чтение

СontentCapture+LLM: как мы ускорили работу с неструктурированными документами

В эпоху цифровой трансформации каждая минута работы с документами на вес золота. Юридические отделы, банки, госучреждения ежедневно обрабатывают сотни договоров, доверенностей и судебных приказов. Ручной ввод данных, поиск реквизитов и проверка сроков могут отнимать до 20 минут на документ — и это если сотрудник не отвлекся на кофе. В нашей линейке продуктов есть универсальная IDP-платформа ContentCapture

продолжить чтение

Где живут LLM: разбираем инференс-кластер YADRO и гоняем в нем модели

Привет, Хабр! В этой статье я расскажу про наш LLM инференс-кластер YADRO: зачем он нужен, что у него под капотом и как в такой конфигурации показывают себя популярные модели. Кроме того, я немного порассуждаю об альтернативных реализациях кластера и поделюсь планами по развитию реализации нашей.

продолжить чтение

1...10...192021222324...30...35