Меньше — лучше: как Polaris-4B обошёл Qwen3-32B
Привет, Хабр!В июне 2025 года команда из Гонконгского университета выложила открытые модели Polaris-4B-Preview и Polaris-7B-Preview, обученные с нуля на reasoning-задачах с использованием Reinforcement Learning. Эти модели не просто догоняют топовые коммерческие аналоги вроде Claude-Opus и Grok-3-Beta — они их обгоняют. Причём на архитектуре всего в 4 миллиарда параметров.Все это результат продуманного инженерного подхода. В этой статье коротко рассмотрим, как авторам Polaris удалось:извлечь максимум из открытых данных,обеспечить стабильное масштабирование reasoning-моделей,
No-code-разработка и ML-помощники – инструменты аналитиков SOC нового поколения
ВведениеДавайте представим, как могло бы выглядеть рабочее место SOC-аналитика будущего. В том числе рассмотрим, какие были бы полезны в реагировании и расследовании ML-помощники: некоторые из упомянутых в статье мы уже внедрили в наши продукты, а некоторые – еще в планах или могут послужить в качестве идеи для тех, кто сталкивается с подобными задачами.Сначала рассмотрим, как чаще всего устроено рабочее место аналитика SOC. На самом деле в современном процессе управления инцидентами уже активно применяются доступные ИИ-помощники, упрощающие или ускоряющие работу.
Как я разрабатываю агентские ИИ системы для извлечения признаков (feature-extraction) из мультимодальных данных
Извлечение признаков (feature extraction) из текстов — ключевой шаг при анализе документов: он является основной практической частью таких задач по обработке данных, как классификация, тематическое моделирование, NER, QA. Если раньше почти что для каждой из таких задач, и в особенности для разных модальностей данных использовались специализированные архитектуры нейронных сетей, то сейчас подобные системы обычно строятся вокруг LLM/VLM. Однако и современные модели на практике настраиваются под конкретные задачи через fine‑tuning или distillation, в связке с retrieval (RAG) и агентскими архитектурами.
Как построить хороший пайплайн разработки ML-модели
Александр РыжковМентор Skillfactory, руководитель команды LightAutoML и 4х Kaggle Grandmaster
Хорошая девушка LoRA! А чем же она хороша?
Поговорим об методике дообучения LLM… спортсменке, комсомолке и просто красавице - LoRA, которая если и не снимается в кино, то может сделать фильмы качественней и интереснее для зрителя. Исторические данные проката и состава творческих групп в перспективе позволяют работать с ансамблевыми моделями машинного обучения для прогнозирования сборов и просмотров в кино, и улучшать данные и путем их подбора «гиперпараметров»
RecSys + DSSM + FPSLoss is all you need
Упрощать и искать похожие детали, очень полезный навык! Предлагаю быстро пробежаться и попробовать найти ту самую серебряную пулю в RecSys !Введение
Kandinsky 4.1 Image – новый генератор изображений от Сбера
В декабре прошлого года на конференции AI Journey наша команда представила диффузионную генеративную модель Kandinsky 4.0 Video (статья на habr
Многорукие бандиты: когда классическое тестирование не работает
Привет, Хабр! Мы команда ЖЦК, занимаемся машинным обучением в ВТБ. Сегодня расскажем про алгоритмическую магию, которая творится прямо у нас под носом. Авторами проекта этой магии в ВТБ стали дата-сайентисты Дмитрий Тимохин, Василий Сизов, Александр Лукашевич и Егор Суравейкин
Тиндер для работодателей и соискателей: как мы разработали алгоритм мэтчинга на Авито
Всем привет! Я Владислав Урих, работаю продуктовым аналитиком в Авито, сейчас занимаюсь построением алгоритмов мэтчинга в новом транзакционном продукте — Авито Подработка.Недавно мы полностью пересобрали алгоритмы ранжирования в Авито: добавили поведенческие признаки, отказались от оптимизации на контакты и внедрили персонализированный поиск.

