BPMSoft будет учить работать с ИИ и low-code студентов Центрального университета
Привет! На связи команда BPMSoft, и у нас полезные новости для будущих студентов и их родителей. Команда
Slow Feature Analysis. Разбор метода и реализация на Python с нуля
Привет, Хабр!В этой статье я хочу рассказать про метод обучения без учителя - “Анализ медленных признаков” (Slow Feature Analysis), далее SFA. Метод был разработан в 2002 году Лоренцом Вискоттом и Терренсом Сейновски.SFA можно использовать для выделения стабильных сигналов на фоне шума, такие как отслеживание объектов на видео, трендов цен из финансовых данных, признаков износа по вибрациям оборудования.SFA
Заключительный этап Всероссийской олимпиады школьников по математике проходит в Москве
В Москве стартовал заключительный этап Всероссийской олимпиады школьников по математике. Мероприятие проходит на площадке Центрального университета и продлится до 20 апреля 2026 года.Всероссийская олимпиада школьников проводится по 24 общеобразовательным предметам. Ежегодно в олимпиаде принимает участие 7 млн школьников из всех регионов России. Олимпиада включает четыре этапа: школьный, муниципальный, региональный и заключительный.
Как работает CMA-ES для оптимизации гиперпараметров в Optuna
В этой статье я наглядно покажу, как именно работает алгоритм CMA-ES для Optuna. Статья подойдет тем, кто не хочет долго копаться в английской документации и хотел бы посмотреть на оптимизацию наглядно. Optuna - библиотека для оптимизации гиперпараметров. Вместо полного перебора она использует историю своих прошлых попыток, чтобы предполагать, какие значения параметров сработают лучше - например, уменьшат лосс или оптимизируют метрики recall, precission и др.
Производящая функция моментов: что это и как она используется в анализе распределений
Производящая функция моментов (moment-generation functions) - это функция, которая служит альтернативным способом задания распределения вероятностей случайной величины. (Далее MGF - производящая функция моментов)Идея моментовДопустим, у нас есть случайная величина
Краткий справочник про внимания (self-attention, cross-attention, multi-head attention)
Механизм внимания (Attention) - это метод в искусственном интеллекте, который позволяет нейросети динамически определять, какие части входных данных наиболее важны для текущей задачи. Он работает через вычисление весов важности для разных элементов входа: более важные элементы получают больший вес, а менее важные - меньший. Затем модель формирует взвешенную сумму представлений, создавая новый контекстный вектор.
Кризис в физике элементарных частиц: есть ли свет в конце туннеля?
Обозреватель Натали Волчовер беседует со специалистами по физике элементарных частиц через тринадцать лет после того, как эта область науки вошла в глубокий кризис.
Галлюцинации LLM — это артефакты сжатия. И это объясняет вообще всё
Представьте, что вам дают 10 терабайт текста и говорят запихнуть это в файл на 70 гигабайт. Да так, чтобы потом по любому вопросу можно было восстановить нужный кусок. Не точно, но близко, и не побайтово, но чтобы по смыслу билось.Вы бы сказали: «так это же lossy-компрессия, часть данных неизбежно потеряется».И были бы правы, потому что именно это делает LLM.Предсказание = сжатие (и это не метафора)Тут нужно кое-что объяснить, и это самое важное в статье.Клод Шеннон доказал в 1948 году: предсказание следующего символа и сжатие данных — математически одно и то же

