градиентный спуск.

Игра в угадайку

продолжить чтение

Бинарная классификация: как работает логистическая регрессия

Недавно мне предстояло написать реализацию LogisiticRegression для одного проекта в Школе 21, так что было необходимо разложить всё по полочкам и разобраться в бинарной классификации в целом. Хочу поделиться также этой информацией здесь, потому что не нашла статьи, которая была бы понятна и обширна лично в моём случае. Автор хочет отметить, что только начинает свой путь в машинном обучении. Если в статье найдутся неточности, то с радостью будет их заметить в комментарияхСегодня я бы хотела рассмотреть следующие аспекты:Сигмойдная функцияMLE и NLLРаспределение Бернулли

продолжить чтение

Математические основы рекуррентных нейросетей (детские вопросы и ответы, о которых не принято говорить)

Зачем всё это?Сейчас в сети можно встретить огромное количество разной литературы и курсов, которые предлагают разобраться в основах нейросетей, так зачем же нужна ещё одна подобная статья? И почему именно рекуррентные нейросети?

продолжить чтение

Применение вариационного исчисления к задаче выделения границ: вывод уравнения Эйлера-Лагранжа

Аннотация Представьте, что вам нужно обвести объект на картинке — не просто тыкая в пиксели, а проведя одну идеальную, плавную и уверенную линию. Та самая, которую набросал бы на бумаге художник. Как объяснить компьютеру, что значит «идеальная граница»? Как заставить его искать не среди груды точек, а в бесконечном море возможных кривых?

продолжить чтение

Градиентный спуск: как «слепой в лабиринте» находит выход в миллиардном пространстве — и почему это сердце любого ML

Пошаговый разбор с метафорами, формулами и лайфхаками, которые спасут ваш fit()

продолжить чтение

Новые алгоритмы ускоряют машинное обучение в децентрализованных сетях

продолжить чтение

Как прямая помогает обучать машины

В контексте компьютеров, обучение — это всего лишь превращение плохих догадок в более качественные. В этом посте мы увидим, что всё начинается с прямой линии: линейная регрессия даёт первую догадку, а градиентный спуск продолжает её улучшать.Давайте начнём с чего-то близкого нам: цен на недвижимость. Большие дома стоят больше, маленькие — меньше. Подобный паттерн можно заметить даже без анализа: чем больше места, тем дороже.Если создать график цен, то его форма будет очевидной: идущая вверх нечёткая кривая с долей шума, но вполне определённым трендом.

продолжить чтение

Введение в многокритериальную оптимизацию, или как потерять чуть меньше денег на крипте

Лежит на струнах пыльРжавеет под окномРазбитый телевизорТы сгладил все углыИ жизнь твоя сплошнойПроклятый компромиссНи вверх ни внизТак поёт группа Би-2 в песне "Компромисс" и с ними трудно не согласиться. Наша жизнь действительно состоит из сплошных проклятых компромиссов между несколькими решениями. Мы пытаемся найти максимально дешёвую, но качественную электронику, ищем экономичный, но быстрый автомобиль и красивого, но надёжного партнёра для отношений.Каждая из этих повседневных задач заключается в поиске оптимума нескольких конфликтующих между собой функций. Это называется

продолжить чтение