Как мы построили систему матчинга товаров с помощью трансформеров и LLM
Привет! Мы — команда ML-разработчиков «Магнит Фудтех», входящей в состав бизнес-группы Магнит OMNI. Меня зовут Виктория Костерина, я тимлид команды. В этой статье мы вместе с моим коллегой, ML-инженером Богданом Тонанайским, рассказываем, как создавали систему автоматического сопоставления товаров между ассортиментом конкурентов и товарами «Магнита».
- Оставлено в
Облачные технологии в контексте агентских AI-систем
В настоящее время процветает разработка агентов — приложений на базе Generative AI, реализующих автономные рабочие процессы. Извлечение и анализ данных, управление детерминированными программами и так далее. Массу вещей можно автоматизировать с помощью LLM и вызова функций, отсюда и спрос на такие системы.Как и традиционное ПО, агенты обычно реализуют принцип разделения логики на специализированные узлы обработки конкретных задач
Law & Practice Ensemble RAG. Как создать ИИ-ассистента, помогающего решать многоаспектные юридические задачи
Автор статьи: Сергей СлепухинВ первой части мы кратко рассмотрели предпосылки и последствия ИИ‑трансформации деятельности юристов, а также предложили вариант архитектуры продвинутой RAG‑системы, учитывающей особенности юридической предметной области.Во этой части
Строим корпоративную GenAI-платформу: от концепции до ROI. Часть 3. Retrieval-Augmented Generation (RAG) на службе GenAI
В предыдущих статьях серии (Часть 1, Часть 2) мы обсудили концепцию корпоративной GenAI-платформы и подходы к ее разработке. Теперь перейдем к одному из ключевых компонентов такой платформы — интеграции знаний с помощью Retrieval-Augmented Generation (RAG). Что такое RAG и зачем он нуженRetrieval-Augmented Generation (RAG)
Путешествие одного промпта: Что на самом деле происходит под капотом у LLM?
Мы все там были. Пустой курсор мигает на экране, в голове крутится сложный вопрос, и вы обращаетесь к своему цифровому оракулу — большой языковой модели. Представьте, вы пишете в чат что-то вроде: "Объясни механизм внимания в трансформерах так, как будто мне 10 лет". Вы нажимаете Enter, и… магия. Через пару секунд на экране разворачивается идеально структурированный, понятный и даже остроумный ответ. Кажется, будто на той стороне сидит невидимый гений, который мгновенно понял ваш запрос и нашел лучшие слова для объяснения.
Автоматизация поддержки клиентов на основе контекстной близости вопросов
Привет, Хабр!Меня зовут Анатолий, занимаюсь диалоговыми системами и применением Искусственного Интеллекта в бизнесе.Кейсовая задача - предоставить клиентам возможность составлять вопрос на естественном языке, а не искать вопрос в списке FAQ-раздела сайта. При этом система должна выдавать ответ из существующей базы знаний "Вопрос-Ответ" существующего FAQ-раздела.Задача реализована с помощью определения контекстной близости вопросов.Техническая реализация:Все вопросы из базы знаний переводятся в векторные представления (embeddings) с помощью искусственной нейронной сети.
Как мы построили embedding-модель уха на Vision Transformers: от идеи до 88% точности
Пока весь мир гонится за распознаванием лиц и отпечатков пальцев, мы в решили взглянуть на человека чуть сбоку — буквально.
Matrix Reloaded: зачем дата-сайентисту линейная алгебра
Меня зовут Мария Жарова, я ML-инженер в Wildberries, преподаватель и автор канала Easy Data. Давайте разберемся, где и зачем дата-сайентисту нужна линейная алгебра. Не будет скучных доказательств, только практические примеры, визуализация и конкретные кейсы.Поехали!Источник:
Простой механизм поиска с нуля
Мы с Крисом недавно «с нуля» буквально за пару часов создали механизм поиска для моего блога. Основную часть проделал именно Крис, так как до этого с word2vec я был знаком лишь отдалённо.
- Оставлено в
Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка
В этой статье мы расскажем о нашей новой модели FRIDA, которая сейчас (20.05.2025) занимает первое место в русскоязычном бенчмарке MTEB (ссылка на таблицу лидеров).Ранее мы уже
- Оставлено в

