- BrainTools - https://www.braintools.ru -

Куда исчезают пользователи: современные фреймворки аналитики retention в 2025 году

В 2025 году retention снова стал главной метрикой рынка

Трафик дорожает, конкуренция растет, AI-продукты выходят быстрее, чем я успеваю их тестировать, — и единственный способ выжить в этой гонке: удерживать пользователей, а не просто радоваться скачкам трафика по праздникам.

Но есть проблема: большинство команд все еще думают, что retention — это «график, на который мы будем смотреть, пока CFO грустит».

если вы тоже сейчас грустите, глядя на свой retention, — вы не один

Давайте разберём, как всё работает в реальности.

1. Почему классический retention устарел

Классический «Day 1, Day 7, Day 30» — это как смотреть на MRTG [1]-графики 2008 года и делать вид, что так и задумано.

Если раньше возвращение действительно было привязано к дням, то сегодня пользователь возвращается, когда:

  • его тегнули в документе

  • сервис прислал релевантный триггер

  • он получил ценность от AI

  • или просто потому что push был вовремя

Линейная модель не отражает реальности.

1.1 Поведение стало событийным (event-driven)

Современные продукты фиксируют десятки событий на одного пользователя:

Пример реального event log:

{
"user_id": 129931,
"session_id": "s-4481ab",
"event": "ai_request",
"timestamp": "2025-01-19T13:22:41Z",
"metadata": {
"response_time_ms": 842,
"token_size": 614,
"model": "llm-small-v3",
"device": "mobile",
"network": "wifi"
}
}

Retention невозможно считать, не понимая почему пользователь вернулся.

1.2. Journey стал нелинейным

Человек может войти в продукт:

  • через веб

  • через приложение

  • через голосового ассистента

  • через виджет

  • через IoT

У разных точек входа — разные ожидания и разные паттерны поведения [2].

1.3. AI внес хаос

До появления AI-помощников и LLM-подсказок поведение [3] пользователей было сравнительно предсказуемым: есть конкретный сценарий, есть оптимальный путь, есть шаги, по которым мы строим воронки.

В 2025 году все изменилось. AI стал частью продукта, и создает нелинейные ветки действий. Пользователь может решить одну и ту же задачу десятью разными способами, и все они выглядят логичными:

  • использовать AI-генерацию вместо ручного ввода,

  • переписать текст через paraphrase-модель,

  • задать вопрос в чат,

  • через голосовой интерфейс,

  • открыть другой виджет AI,

  • активировать автозавершение…

И все это — «разные» пути к одной цели.

В итоге в логах появляется хаос:

{
"user_id": 129931,
"session_id": "s-4481ab",
"event": "ai_request",
"timestamp": "2025-01-19T13:22:41Z",
"metadata": {
"response_time_ms": 842,
"token_size": 614,
"model": "llm-small-v3",
"device": "mobile",
"network": "wifi"
}
}

Какую цепочку считать «нормальной»?
Какая — успешной?
Какая — ведущей к уходу?

Классические воронки просто ломаются и старые метрики просто не успевают за реальностью.

Нельзя считать retention в AI-продуктах так же, как в обычных сервисах.
Поведение стало:

  • вероятностным,

  • вариативным,

  • контекстным,

  • непредсказуемым,

  • нелинейным,

  • зависящим от модели.

Поэтому фреймворки 2010–2017 годов перестали работать.

Нужны новые подходы:
Trigger-based Retention, CAR, Value Retention, и AI-кластеризация.

дальше будет чуть сложнее, но вы справитесь, я верю

2. Современные фреймворки retention в 2025 году

Здесь начинается самое интересное. Каждый из фреймворков ниже давно используется в Amplitude, Mixpanel и крупных AI-продуктах.

2.1. Trigger-based Retention

Возврат измеряется не по дате, а по моменту активации.

Визуальное представление фреймворка

Визуальное представление фреймворка

Пример SQL (упрощённый):

WITH activation AS (
SELECT user_id, MIN(event_time) AS activation_ts
FROM events
WHERE event_name = 'first_note_created'
GROUP BY user_id
),
returns AS (
SELECT
e.user_id,
DATE_DIFF(e.event_time, activation_ts, DAY) AS day_offset
FROM events e
JOIN activation a USING (user_id)
WHERE e.event_time > activation_ts
)
SELECT
day_offset,
COUNT(DISTINCT user_id) AS users
FROM returns
GROUP BY day_offset
ORDER BY day_offset;

Почему это важно? Потому что «вернулся через 7 дней» не значит ничего, если он не дошёл до ценности.

2.2. Critical Action Retention (CAR)

Это один из самых точных предикторов удержания.

Critical Action = действие, после которого вероятность возврата резко растёт.

Пример таблицы:

Действие

Retention D7

Retention D30

Открыл приложение

14%

2%

Создал первую заметку

41%

23%

Добавил вторую заметку

58%

39%

Подключил AI-редактор

72%

51%

CAR говорит:

удержание растет не потому что пользователь «остался», а потому что он получил ценность.

если ваш critical action — «пользователь не убежал», то нам нужно серьёзно поговорить.

2.3. Contextual Retention

Retention по контекстам:

  • тип устройства

  • скорость соединения

  • время суток

  • трафик-канал

  • версия модели AI

Контекст

Retention D7

iOS, Wi-Fi

46%

Android, 4G

33%

Web, корпоративная сеть

18%

Контексты показывают где протекает труба в реальных условиях.

2.4. AI-кластеризация поведения

LLM-кластеры позволяют группировать пользователей на основе поведенческих последовательностей.

Пример кластера:

{
"cluster": "explorers",
"pattern": [
"open_app",
"try_feature_A",
"switch_theme",
"ai_experiment",
"exit"
],
"dropoff_cause": "no_clear_reward"
}

Это мощнейший инструмент.
Если вы делаете AI-продукт — без этого просто нельзя.

2.5. Value Retention

Современная формула:

Value Retention(n)=UsersRepeatedValue(n) / UsersReceivedValueFirstTime

Value-state примеры:

  • второе сохранение документа,

  • вторая успешная AI-операция,

  • третий просмотр урока.

3. Как искать настоящие причины ухода (RCA 2025)

Раньше RCA делали вручную. Теперь используется LLM-assisted Root Cause Analysis.
Простейший пример псевдокода:

def detect_dropoff(events):
issues = {}
for e in events:
if e.get("error"):
issues["errors"] = issues.get("errors", 0) + 1
if e.get("latency_ms", 0) > 1200:
issues["slow"] = issues.get("slow", 0) + 1
if e.get("empty_state"):
issues["empty"] = issues.get("empty", 0) + 1

return sorted(issues.items(), key=lambda x: x[1], reverse=True)

AI показывает:

  • пользователи уходят из-за медленных ответов,

  • пустых экранов,

  • лишних шагов,

  • отсутствия понятного результата.

4. Как устроен технический пайплайн retention-аналитики

[Client apps]
↓ events
[Event Gateway]
↓ stream
[Kafka / Kinesis]
↓ ingestion
[ClickHouse / BigQuery]
↓ transformations
[dbt / Airflow jobs]

[Cohort tables + Retention snapshots]

[Amplitude / Mixpanel / Metabase dashboards]

5. Практическая карта улучшения retention в 2025

1. Найдите critical action.
Если у продукта нет ценности — retention не вылечит.

2. Упростите ранний путь.
Первые 3 события → самый сильный предиктор ухода.

3. Уберите «пустые состояния».
Пустой экран = гарантированный drop-off.

4. Введите триггеры возврата.
Контекстные, а не календарные.

5. Используйте AI для анализа поведения.
Пусть модель с��отрит на последовательности — это точнее людей.

6. Оптимизируйте скорость.
Высокая latency = мгновенный рост отказов.

7. Покажите ценность в первые 2 минуты.
Value-превью работает лучше, чем длинный onboarding.

 Рост retention

Рост retention

Итоги

если вы дочитали до сюда — вы уже заслужили плюсик в карму.

Retention 2025 — это уже не «кто вернулся на 7-й день».
Это многослойная система:

  • контекстов,

  • событий,

  • ценностей,

  • AI-кластеров,

  • последовательностей поведения,

  • технических ограничений,

  • и правильной архитектуры.

Ключевой вопрос звучит так:

«Когда пользователь получает ценность, и что мешает ему получить ее снова?»

Если продукт умеет отвечать на этот вопрос — он растет. Если нет — он исчезает вместе с пользователями.

Автор: Dr_Mur

Источник [4]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/22820

URLs in this post:

[1] MRTG: https://ru.wikipedia.org/wiki/MRTG

[2] поведения: http://www.braintools.ru/article/9372

[3] поведение: http://www.braintools.ru/article/5593

[4] Источник: https://habr.com/ru/articles/973922/?utm_source=habrahabr&utm_medium=rss&utm_campaign=973922

www.BrainTools.ru

Rambler's Top100