Порядок работы с устареванием ML моделей. Шаг 2: Создание надежных и долговечных моделей
ВведениеЕще на этапе создания модели следует проделать работу, направленную на замедление ее устаревания.Реализацию процесса работы с устареванием моделей в ML можно разделить на 4 шага:Шаг 1: Понимание устареванияШаг 2: Создание надежных и долговечных моделейШаг 3: Внедрение системы мониторингаШаг 4: Переобучение и поддержание актуальности моделиВ этой части мы с вами узнаем, как создать надежную и долговечную модель, а также получить много полезной информации, которая поможет нам бороться с устареванием в будущем.
Порядок работы с устареванием ML моделей. Шаг 1: Понимание устаревания
ВведениеПод устареванием моделей понимается постепенная потеря их точности из-за изменения данных, на которых они были обучены. Если модель устарела, ее следует переобучить, чтобы восстановить ее точность и адаптировать к новым данным. Реализацию процесса работы с устареванием моделей в ML можно разделить на 4 шага:Шаг 1: Понимание устареванияШаг 2: Создание надежных и долговечных моделейШаг 3: Внедрение системы мониторингаШаг 4: Переобучение и поддержание актуальности модели
CTO Oracle предложил обучить нейросетевого «большого брата» на данных граждан, включая их ДНК
На Всемирном правительственном саммите (World Governments Summit, WGS) технический директор компании Oracle Ларри Эллисон предложил руководителям стран обучать специальные нейросети на всех национальных данных, к которым только можно получить доступ. Он считает, что это поможет управлять страной, снизить преступность, повысить урожайность и лечить граждан.
Как устроены алгоритмы онлайн-кинотеатра. Разбираем на примере
Вы приходите домой и включаете любимый стриминг. Лента сразу же выдаёт вам несколько фильмов и сериалов, которые… действительно хочется смотреть. Сегодня разберём, как именно рождается эта магия вне Хогвартса, и что сидит под капотом рекомендательного движка онлайн-кинотеатра.
Anthropic готовит новую гибридную модель Claude, превосходящую o3-mini-high в кодинге
Как сообщает The Information, Anthropic планирует представить свою следующую крупную модель, которая сочетает традиционные языковые возможности с продвинутыми функциями логического анализа.
ByteDance представила ИИ-модель для генерации видео Goku. Наступает эра фейковых блогеров
ByteDance представила ИИ-модель для генерации видео Goku. Наступает эра фейковых блогеровСогласитесь ли вы со мной, если я скажу, что наступает эра фейковых блогеров?По правде говоря, она уже наступила.
Как научить модель рассуждать, не переобучая её, меньше чем за 10$
ВведениеЭто статья обобщение моего исследования передачи знаний от большой модели с замороженными весами в малую модель, которую мы будем обучать через расширенный механизм кросс внимания или проще говоря через LLM модули. Оригинальное исследование доступно по ссылке: arxiv.org/abs/2502.08213 . Репозиторий с кодом и весами доступен на Hugging Face: LLM модули.
Исследование AI выявило ключевые факторы, лежащие в основе долгосрочных способностей LLM к рассуждениям
Систематическое исследование раскрывает методы, с помощью которых генерируются длинные цепочки мыслей моделей рассуждений. Результаты дают практические советы по оптимизации стратегий обучения. Команда IN.AI вместе с исследователями из Университета Цинхуа и Университета Карнеги-Меллона составила карту того, как модели AI развивают свою способность работать с длинными цепочками мыслей. Их систематическое исследование использовало контролируемую тонкую настройку (SFT) и обучение с подкреплением (RL) для выявления ключевых факторов, лежащих в основе этой способности.
В JetBrains AI Assistant добавили поддержку локальных моделей через LM Studio
JetBrains сообщила разработчикам, что нейросетевой помощник AI Assistant теперь поддерживает интеграцию локальных языковых моделей через LM Studio. Помимо этого компания добавила новые нейросети от OpenAI и Anthropic.В ноябре 2024 года JetBrains добавили возможность подключать к AI Assistant локальные языковые модели с помощью Ollama. Это даёт большое преимущество для пользователей, которым важна приватность, но не всем может быть удобно пользоваться Ollama. Теперь локальные модели можно подключать и через LM Studio.

