
Всем привет! Меня зовут Яна Чеканова, я проджект-менеджер в red_mad_robot уже два года — и да, я не технарь, а филолог по образованию. Парадоксально, но именно это образование помогло мне в одном из самых технологичных проектов — создании AI-поиска для сервиса книги билайн.
Идея родилась у команды билайна: они провели исследование и поняли, что большинство читателей не ищут конкретного автора или название, а ориентируются на настроение и ощущение от книги — «что-то атмосферное», «что-то как любимый роман». Так появилась гипотеза: сделать поиск, который понимает смысл запроса, а не только ключевые слова.
Мы подключились, чтобы превратить эту идею в технологию: векторизовали метаданные полумиллиона книг, обучили LLM и собрали гибридную систему, которая подбирает литературу по смыслу и контексту — даже если запрос звучит просто как «что-нибудь про путешествия во времени».
Рассказываю, как это было.
От бизнес-гипотезы к инженерной задаче
Команда книги билайн первой в индустрии сформулировала задачу — научить AI работать с литературными текстами не по ключевым словам, а по смыслу. Для этого нужно было не просто применить готовые модели, а выстроить инфраструктуру, которая сможет анализировать метаданные и контент более чем 500 тыс. книг: авторов, жанры, аннотации и описания.
Чтобы превратить идею в рабочее решение, компания пригласила red_mad_robot в качестве технологического партнёра. Мы взяли на себя архитектуру, обработку данных и разработку гибридного поиска на основе LLM и векторной базы.
Всё началось с внутреннего исследования, которое провела команда книги билайн. Оно показало, что 54% пользователей затрудняются выбрать книгу, если у них нет конкретного названия на уме. При этом большинство формулируют запросы через ощущения: «лёгкое чтиво на вечер», «история о сильной женщине», «нуарный детектив с харизматичным главным героем». На основе этих инсайтов родилась гипотеза: если научить AI понимать такие запросы, можно упростить поиск и повысить вовлечённость читателей.
Мы подключились на этапе, когда была сформулирована идея, но требовалось технологическое решение. Наша задача — построить систему AI-поиска, способную обрабатывать смысловые запросы и сопоставлять их с каталогом, где каждое произведение описано в десятках параметров.
Long Story Short: о задаче, решении и цифрах
За два месяца нужно было разработать систему AI-поиска, которая позволяла бы пользователям находить книги по свободному описанию — без точного указания автора или названия.

На момент старта проекта ни один книжный сервис не позволял искать литературу по абстрактным или эмоциональным описаниям. Чтобы это реализовать, мы создали гибридную архитектуру поиска, в которой сочетаются классический NLP, векторный анализ и LLM. Такая комбинация позволила системе не просто сопоставлять ключевые слова, а интерпретировать смысл запроса и подбирать книги по содержанию, стилю и тематике.
Результаты
AI-поиск сократил путь пользователя от запроса до подходящей книги и одновременно повысил эффективность самого сервиса.
Как возникла идея AI-поиска
Рынок цифровых книг устроен довольно однотипно: у большинства сервисов схожие каталоги и базовый набор функций — чтение, прослушивание, синхронизация между устройствами. В таких условиях внимание пользователя становится главным конкурентным преимуществом.
Команда книги билайн задумалась, как сделать процесс выбора книги интуитивным и «живым». В ходе пользовательских интервью они заметили закономерность: читатели чаще описывают, что хотят прочитать, не через названия или авторов, а через настроение и атмосферу. На этом наблюдении построили гипотезу — если AI сможет распознавать такие запросы, то поиск станет по-настоящему персонализированным.
Кроме того, анализ пользовательского поведения показал структурную проблему самого рынка. У любого книжного сервиса есть условное разделение аудитории: небольшая группа «профессиональных» читателей с продуманным списком литературы и большинство пользователей, которые открывают приложение без чёткого запроса. Они не знают, что хотят прочитать сегодня, и ориентируются на рекомендации или обложки.
При этом каталоги цифровых библиотек насчитывают сотни тысяч произведений, а интерфейс может показать пользователю лишь несколько десятков. В итоге на виду оказываются самые популярные книги, а остальная часть контента остаётся «под водой».
Это создаёт две задачи:
-
раскрыть весь потенциал каталога, хотя пользователь видит только его верхушку;
-
удержать интерес аудитории, предлагая релевантные, но неочевидные книги.
Так сформировалась идея AI-поиска по смыслу — технологии, которая могла бы связать читательские ожидания с реальным контентом. Для реализации замысла билайн искал партнёра с сильной экспертизой в прикладном AI. Мы в red_mad_robot подключились, чтобы построить технологическую платформу, способную работать с миллионами неструктурированных литературных данных и обеспечивать точные смысловые рекомендации.
«Мы хотели научить AI понимать книги — не просто искать по словам, а видеть смысл. Год искали партнёра, кто способен реализовать такую идею, и в red_mad_robot нашли ту самую команду, которая не боится идти в неизведанное. Оказалось, что структурировать книги гораздо сложнее, чем, скажем, музыку. Даже если решить проблему с векторизацией огромного массива литературных данных, никто не застрахован от галлюцинаций LLM. У нас было много смешных кейсов, например, когда модель сочинила новую историю про Колобка вместо поиска реальной сказки, причём подмену заметили далеко не сразу».
Наталья Каменских, CPO AI билайн
Что вообще значит для LLM «выбирать книги по настроению»?
И у меня, и у Натальи Каменских, CPO AI билайн, — филологическое образование. Поэтому, когда речь зашла о поиске «по смыслу», мы обе понимали, насколько субъективна эта задача. Люди описывают книги через эмоции и ассоциации и хотят, чтобы их понимали («что-то как Сумерки, но менее наивное»). Подобное описание нельзя напрямую связать с метаданными — автором, жанром или аннотацией.
Чтобы перевести такие человеческие запросы на язык машин, нужно было научить модель распознавать смысловые паттерны, а не только ключевые слова. Мы проанализировали, какие характеристики текста лучше отражают атмосферу — от тематики и динамики сюжета до типа персонажей. Параллельно пришлось решить и неожиданные задачи: например, цензурные фильтры LLM блокировали ответы на запросы, связанные с преступлениями или романтическими сценами — хотя без них невозможен ни один детектив.
В процессе стало понятно: создание AI-поиска для книг — это не просто про технологии, а про понимание контекста и культуры чтения. Чтобы вывести продукт на рынок первыми, нужно было не только разработать архитектуру, но и быстро адаптировать модель под особенности литературных данных.
Наш путь от идеи до реализации занял всего два месяца — настоящий спринт, в котором важна была каждая неделя.
Что под обложкой: команда, архитектура, запуск
Неделя 1. Формирование команды и архитектуры проекта
У нас было две недели на подготовку и шесть — на разработку. Поскольку на рынке не существовало готовых стандартов для подобных AI-решений, многие подходы приходилось выстраивать с нуля. Для этого мы собрали компактную кросс-функциональную команду из шести человек.
Неделя 2. Прототипирование и эксперименты
В основе подхода лежала идея гибридного анализа — сочетание классических NLP-методов и семантического поиска на базе LLM. По аналогии с филологическим анализом текста, где смысл раскрывается на нескольких уровнях (лексика, контекст, структура), мы строили систему, которая могла бы «понимать» книги через многослойное сопоставление данных.
Ранние прототипы показали: ни один из подходов — ни LLM, ни чисто векторный поиск — не даёт точных результатов по отдельности. Поэтому мы объединили их: LLM анализирует смысл запроса, а векторная база помогает найти наиболее релевантные совпадения по контенту и метаданным.
Неделя 3–4. Архитектура гибридного поиска
Финальная архитектура включает два взаимодополняющих контура:
-
LLM обрабатывает пользовательский запрос, разбивает его на параметры (жанр, настроение, тематику, тип персонажей) и определяет стратегию поиска.
-
Векторная база данных выполняет семантический поиск по каталогу, где хранятся метаданные о книгах — от авторов и жанров до сюжетных характеристик.
Далее LLM повторно обращается к результатам поиска, чтобы сформировать финальный ответ и описания книг на естественном языке. Благодаря синхронной работе двух систем выдача становится точнее: нейросеть учитывает не только совпадения по словам, но и смысловую близость произведений. Такая схема позволила объединить глубину анализа LLM и масштабируемость векторных моделей.
Неделя 5–6. Оптимизация и структурированные ответы
На следующем этапе мы оптимизировали процесс генерации ответов. Вместо классического текстового вывода LLM мы начали запрашивать у модели структурированный ответ (Structured Output) в формате JSON:
[
{"book": "book_1", "author": "author_1"},
{"book": "book_2", "author": "author_2"}
]
Такой формат позволил автоматически проверять через API сервиса, какие из предложенных книг действительно присутствуют в библиотеке билайна. После валидации LLM выполняет повторное ранжирование с учётом данных из векторной базы и формирует итоговый ответ — уже в виде естественного текста для пользователя.
Во время тестирования мы обнаружили, что поиск по аннотациям не даёт точных результатов: в большинстве случаев аннотация — это маркетинговое описание, а не отражение содержания. Поэтому для следующей версии сервиса мы с командой билайна исследуем переход на анализ логлайна — краткого, но строго структурированного описания книги, включающего место действия, персонажей и основную фабулу. Это позволит повысить точность смыслового поиска и улучшить рекомендации.
Неделя 7. Запуск и первые результаты
В декабре 2024 года сервис был открыт для всех пользователей. После ограниченного тестирования мы запустили наблюдение за реальными запросами и поведением читателей — именно эти данные помогли определить направления для дальнейшей доработки поиска.
Решение, созданное совместно с командой книги билайн, стало первым примером гибридного AI-поиска, в котором нейросеть и семантический поиск работают параллельно. Система не ограничивается поиском по ключевым словам: она анализирует смысл запроса и сопоставляет его с характеристиками произведений — жанром, темой, стилем и эмоциональной тональностью. Использование весовых коэффициентов позволило улучшить ранжирование результатов и повысить точность выдачи.
Неделя 8. Масштабирование и развитие
Уже в первый месяц после запуска сервис получил 1,1 млн просмотров страниц поиска и 520 тыс. уникальных пользователей — фактически охватив весь активный рынок цифрового чтения. Рост числа подписок и глубины взаимодействия показал, что пользователи быстро адаптировались к новому формату поиска.
AI-поиск стал результатом совместной работы двух команд: книги билайн сформулировали идею и продуктовое направление, а red_mad_robot реализовал технологическую часть и архитектуру, позволившую масштабировать решение. Этот проект — отличный пример синергии классических цифровых технологий — в частности, полнотекстового поиска — и современных AI-подходов.
Над материалом работали
Текст — Яна Чеканов
Редактура — Лиза Лантратова, Игорь Решетников
Иллюстрации — Саша Буяк
Это блог red_mad_robot. Мы запускаем цифровые бизнесы и помогаем компаниям внедрять AI. Здесь наша команда разработки на собственных кейсах рассказывает о том, что происходит с AI сегодня, а стратегические аналитики подсказывают, что будет завтра. Мы бы подписались.
Наш Telegram-канал (там всё другое, а ещё есть анонсы мероприятий): t.me/redmadnews
Автор: redmadrobot


