эмбеддинги.

Бенчмарк 7 эмбеддингов и 4 реранкеров на корпусе судебной практики

Привет, Хабр. Это мой первый пост здесь, поэтому пара слов о себе.Я практикующий юрист, 8+ лет практики, последние годы - в производственном секторе. Веду договорную работу (поставка, подряд, услуги), сопровождаю сделки, закрываю претензионку и представляю компанию в арбитражных судах и спорах по защите прав потребителей - на стороне производителя и поставщика. К коду пришёл через вайбкодинг: захотелось автоматизировать некоторые процессы, начал ковыряться в VS Code, Trae, Cursor и Claude Code, втянулся - и теперь это параллельное хобби рядом с основной практикой.

продолжить чтение

Пять документов ломают ваш RAG: где реальная уязвимость и что с ней делать

Материал подготовлен для будущих студентов курс "NLP / Natural Language Processing".У RAG-систем есть фундаментальный парадокс доверия: пользовательские запросы считаются недоверенным вводом, а извлеченный из базы знаний контекст по умолчанию считается доверенным, хотя и то и другое попадает в один и тот же промпт. Согласно исследованию, опубликованному на USENIX Security 2025 (или см. github репо

продолжить чтение

Как граф транзакций помогает банку лучше узнать своего клиента

Привет, Хабр.Каждый раз, когда вы платите картой, банк записывает это событие. Со временем накапливается история: купил кофе — запись, оплатил газ — запись, снял наличные — запись. Банковский ИИ умеет анализировать последовательность событий и делать выводы о человеке: молодой или пожилой, семьянин или одиночка, предпочитает копить или тратить.

продолжить чтение

Предварительная фильтрация KNN в Manticore Search

Векторный поиск редко используется сам по себе. Почти всегда есть фильтры — диапазон цен, категория, временное окно, географическая граница. Вопрос в том, когда именно эти фильтры применяются.Ответ неожиданно сильно влияет на качество результатов.

продолжить чтение

TAPe‑дневник, день 7: первый уход от трансформеров и “почти бесплатная” сегментация

В этом посте продолжаем дневник TAPe‑детекции и рассказываем, что получилось после отказа от трансформеров: насколько сократилось число параметров, как работают локальные ассоциации TAPe‑патчей и почему на лице человека у нас начинает “сам по себе” появляться зачаток сегментации.Если вы тут впервые, сначала можно посмотреть:базовую статью про TAPe+ML — TAPe + ML: универсальная архитектура компьютерного зренияFAQ по TAPe‑детекции —

продолжить чтение

TAPe‑дневник, день 6: синтетика, эмбеддинги и первый уход от трансформеров

В этой статье продолжаем онлайн‑дневник экспериментов с TAPe‑подходом к компьютерному зрению на COCO. Здесь – про обучение эмбеддингов на полностью синтетических TAPe‑данных, 74% точности классификации на 5k val‑изображениях и первые выводы о том, почему стандартные трансформеры нам не подходят.Если вы тут впервые, сначала можно посмотреть:базовую статью про TAPe+ML — TAPe + ML: универсальная архитектура компьютерного зренияFAQ по TAPe‑детекции —

продолжить чтение

TAPe-дневник, день 5: 98% на 2% COCO, меньше “фона” и первые боксы

В этой статье продолжаем онлайн‑дневник экспериментов с TAPe‑подходом к компьютерному зрению на COCO. Кратко: подняли точность до ~98% на двухпроцентной выборке, уменьшили количество ложных срабатываний и начали переход от поиска центроидов к детекции прямоугольников вокруг объектов.Если вы тут впервые, сначала можно посмотреть:базовую статью про TAPe+ML — TAPe + ML: универсальная архитектура компьютерного зренияКак наш домашний НИИ обошёл DINOv2, ViT и десятки ML‑моделей в видео‑разметкепредыдущие части дневника

продолжить чтение

От слов к числам: как компьютер узнаёт, о чём текст

Всем, привет! Меня зовут Даня, я учусь в Центральном Университете. Сегодня я хочу рассказать, как компьютер понимает о чем говорится в тексте.Ты открываешь новостную ленту, там множество категорий: спорт, политика, развлечения - всё перемешано. Представь, что нужно разложить тысячи статей по категориям без единого человека.Звучит как магия? На самом деле - математика. Сегодня расскажу, как это работает.Часть 1: Как превратить слова в числаКомпьютеры не понимают слов, они работают с числами. Как перевести статью в язык машин?

продолжить чтение

RAG: как Филин Палыч-реранкер навел порядок в цифровом королевстве

Утренний стендап в цифровом королевствеИспользуйте оглавление, если не хотите читать текст полностью:Введение➽ О чём эта сказка  — (RAG: что это и зачем)

продолжить чтение

Как оценивать RAG-системы: метрики, методы и что измерять в первую очередь

Материал подготовлен для будущих студентов курса «ИИ-архитектор».Когда RAG-система дает сбой, по одному только ответу невозможно понять, почему это произошло. RAG расшифровывается как retrieval-augmented generation – генерация с дополнением через поиск – и это одна из самых распространенных техник проектирования контекста, позволяющая добавлять AI-агентам дополнительную информацию, а значит, и повышать точность их работы. Поскольку RAG – критически важный компонент современных AI-приложений, разработчикам нужен метод оценки LLM, который позволяет выявлять проблемы и отслеживать качество работы RAG.

продолжить чтение