Куда исчезают пользователи: современные фреймворки аналитики retention в 2025 году
В 2025 году retention снова стал главной метрикой рынкаТрафик дорожает, конкуренция растет, AI-продукты выходят быстрее, чем я успеваю их тестировать, — и единственный способ выжить в этой гонке: удерживать пользователей, а не просто радоваться скачкам трафика по праздникам.Но есть проблема: большинство команд все еще думают, что retention — это «график, на который мы будем смотреть, пока CFO грустит».если вы тоже сейчас грустите, глядя на свой retention, — вы не один Давайте разберём, как всё работает в реальности.1. Почему классический retention устарел
Цифровые культиваторы, теплицы и мотоблоки или мультиагентная трансформация АПК
Миронов В.О., Кальченко С.Н.Приветствую вас, бравые хаброжители ;-) В наше время искусственный интеллект очень быстро развивается, при этом, вносит значительные коррективы в развитие различных профессий, диктуя там свои правила и виденье. При этом основные козыри — это скорость, время и профит. В этом контексте мы и будем говорить о сложившейся ситуации, а именно, о дифференцированной трансформации профессий.
Как рассуждают большие языковые модели
Транскрибация доклада Ивана Оселедця: "Большие языковые модели в эпоху ризонинга"В самом деле эпоха ризонинга, она так вот началась в Раде. Сейчас, конечно, есть такое четкое ощущение, что она немножко уже заканчивается. Сроки развития в искусственном интеллекте, они очень короткие. И эпохи у нас длятся, получается, пару месяцев. И мы уходим уже в подходы, которые связаны, например, уже с эволюцией агентов, подходы, которые предложены первой Вальфой Волве. Вот вчера буквально статья вышла.
LLM: обучение и использование
Транскрибация лекции Михаила Тихомирова с названием "LLM: обучение и использование. 1. Большие языковые модели. Введение. Основы архитектуры Transformer". Материал по архитектурам больших языковых моделей. Разбил на несколько частей из-за большого объёма. Слайды на видео, распечатка очень удобна для заметок. Часть 1.
Часть 2. Иван Оселедец с докладом «Успехи и проблемы больших языковых моделей»
Первая часть - https://habr.com/ru/articles/970614/
Иван Оселедец с докладом «Успехи и проблемы больших языковых моделей»
Я распечатал доклад, стараясь не поломать авторскую речь и мысль. Но всё таки доклад не читался, а произносился по памяти и слайдам, поэтому несколько слов убрал или заменил. Доклад на полчаса, выложу в двух частях. Представление - Доктор физико-математических наук, профессор РАН, генеральный директор института Айри, декан факультета искусственного интеллекта МГУ Иван Оселедец с докладом «Успехи и проблемы больших языковых моделей». Дальше говорит Оселедец.
Как мы встроили ИИ в Process Mining: децентрализация, одна кнопка инсайтов и путь к агентам
Привет! Я — Андрей Шалягин, руководитель Офиса цифровизации в Альфа-Банке. Наша команда помогает различным подразделениям внедрять технологии и решения, направленные на выявление и оптимизацию рутины, повышение производительности и цифровизацию операций.В Альфе множество сквозных процессов и точек взаимодействия между системами и людьми. BI-инструменты хорошо справляются с агрегацией данных и построением отчетности, но они редко отвечают на вопрос: как на самом деле протекает процесс, где он замедляется и почему возникают отклонения.
Как подключить LLM в n8n без иностранной карты и протестировать сервис бесплатно
Подключить LLM к n8n вроде бы просто, но на практике большинство зарубежных сервисов ломают весь процесс. Чтобы получить ключ, приходится использовать карту иностранного банка и заходить с иностранного IP-адреса. Для российских разработчиков и вайбкодеров это превращается в отдельный квест.Поэтому в инструкции разберем, как настроить работу LLM в n8n без иностранной карты и протестировать все бесплатно. Для примера воспользуемся сервисом VseLLM
Пример реализации агентного RAG’а
Надеюсь, все знают что такое RAG :) Для тех, кто не знает: это такая система, которая позволяет искать информацию и отвечать на вопросы по внутренней документации.Архитектура RAG может быть как очень простой, так и весьма замысловатой. В самом простом виде она состоит из следующих компонентов:Векторное хранилище — хранит документы в виде чанков - небольших фрагментов текста.Ретривер — механизм поиска. Получает на вход искомую строку и ищет в векторном хранилище похожие на нее чанки (по косинусному сходству).
AI-инструменты 2025: Полный технический анализ Perplexity, ChatGPT, Gemini и DeepSeek
🎯 Резюме: Кто лучше?ИнструментОценкаСильная сторонаPerplexity AI4.20/5Точность + RAG архитектураChatGPT3.85/5MoE + GPT-4o мультимодальностьDeepSeek3.75/5MoE эффективность + бесплатноGemini3.35/5Контекст 1M + видео обработка

