От пустой выдачи к релевантной: как мы оцениваем качество поиска через метрики, LLM и фидбэк пользователей
Привет, Хабр! Это Илья Красавцев и Артем Козак из команды ранжирования и поиска Lamoda Tech. Понять, насколько хорошо работает поиск, не так просто, как кажется. Здесь не поможет одна правильная метрика: поведение пользователей неоднозначно, запросы разнообразны, а контент постоянно меняется. Поэтому приходится копать глубже: анализировать метрики, использовать LLM и даже спрашивать самих пользователей. В этой статье мы расскажем, какие процессы выстроили для непрерывной оценки качества поиска в каталоге, и как с помощью них постоянно улучшаем систему.
GPT, DeepSeek и Qwen: идеальные unit-тесты в эхо-камере
Появление unit- и UI-тестов неизбежно в крупных мобильных приложениях: появляется новая функциональность, старая расширяется, изменяются существующие элементы. Для стабильной работы команда вынуждена внедрять автотесты, что требует инфраструктуры, инструментов, а также времени и внимания для их реализации.Размышляя над этим, пришла идея использовать LLM для автоматической генерации тестов. Это могло бы снизить нагрузку на разработчиков и минимизировать влияние автотестов на time to market новых фич. Меня зовут Марк, я iOS-разработчик Lamoda Tech. Ранее я рассказывал

