математика. - страница 2

BPMSoft будет учить работать с ИИ и low-code студентов Центрального университета

Привет! На связи команда BPMSoft,  и у нас полезные новости для будущих студентов и их родителей. Команда

продолжить чтение

Slow Feature Analysis. Разбор метода и реализация на Python с нуля

Привет, Хабр!В этой статье я хочу рассказать про метод обучения без учителя - “Анализ медленных признаков” (Slow Feature Analysis), далее SFA. Метод был разработан в 2002 году Лоренцом Вискоттом и Терренсом Сейновски.SFA можно использовать для выделения стабильных сигналов на фоне шума, такие как отслеживание объектов на видео, трендов цен из финансовых данных, признаков износа по вибрациям оборудования.SFA

продолжить чтение

Заключительный этап Всероссийской олимпиады школьников по математике проходит в Москве

В Москве стартовал заключительный этап Всероссийской олимпиады школьников по математике. Мероприятие проходит на площадке Центрального университета и продлится до 20 апреля 2026 года.Всероссийская олимпиада школьников проводится по 24 общеобразовательным предметам. Ежегодно в олимпиаде принимает участие 7 млн школьников из всех регионов России. Олимпиада включает четыре этапа: школьный, муниципальный, региональный и заключительный.

продолжить чтение

Как работает CMA-ES для оптимизации гиперпараметров в Optuna

В этой статье я наглядно покажу, как именно работает алгоритм CMA-ES для Optuna. Статья подойдет тем, кто не хочет долго копаться в английской документации и хотел бы посмотреть на оптимизацию наглядно. Optuna - библиотека для оптимизации гиперпараметров. Вместо полного перебора она использует историю своих прошлых попыток, чтобы предполагать, какие значения параметров сработают лучше - например, уменьшат лосс или оптимизируют метрики recall, precission и др.

продолжить чтение

Автоматизация физических задач и формул, а так же расчет продуктивности мозга написанная на Python

продолжить чтение

Производящая функция моментов: что это и как она используется в анализе распределений

Производящая функция моментов (moment-generation functions) - это функция, которая служит альтернативным способом задания распределения вероятностей случайной величины. (Далее MGF - производящая функция моментов)Идея моментовДопустим, у нас есть случайная величина

продолжить чтение

Краткий справочник про внимания (self-attention, cross-attention, multi-head attention)

Механизм внимания (Attention) - это метод в искусственном интеллекте, который позволяет нейросети динамически определять, какие части входных данных наиболее важны для текущей задачи. Он работает через вычисление весов важности для разных элементов входа: более важные элементы получают больший вес, а менее важные - меньший. Затем модель формирует взвешенную сумму представлений, создавая новый контекстный вектор.

продолжить чтение

Кризис в физике элементарных частиц: есть ли свет в конце туннеля?

Обозреватель Натали Волчовер беседует со специалистами по физике элементарных частиц через тринадцать лет после того, как эта область науки вошла в глубокий кризис.

продолжить чтение

Мета-теория связей 0.0.3

В прошлое первое апреля, как вы могли догадаться, мы пошутили. Пора это исправить, и теперь  всё серьёзно.TL;DR (too long; didn't read)В этой статье много букв, но её можно записать всего 4-мя символами теории множеств:

продолжить чтение

Галлюцинации LLM — это артефакты сжатия. И это объясняет вообще всё

Представьте, что вам дают 10 терабайт текста и говорят запихнуть это в файл на 70 гигабайт. Да так, чтобы потом по любому вопросу можно было восстановить нужный кусок. Не точно, но близко, и не побайтово, но чтобы по смыслу билось.Вы бы сказали: «так это же lossy-компрессия, часть данных неизбежно потеряется».И были бы правы, потому что именно это делает LLM.Предсказание = сжатие (и это не метафора)Тут нужно кое-что объяснить, и это самое важное в статье.Клод Шеннон доказал в 1948 году: предсказание следующего символа и сжатие данных — математически одно и то же

продолжить чтение