Градиентный спуск: как «слепой в лабиринте» находит выход в миллиардном пространстве — и почему это сердце любого ML
Пошаговый разбор с метафорами, формулами и лайфхаками, которые спасут ваш fit()
Как прямая помогает обучать машины
В контексте компьютеров, обучение — это всего лишь превращение плохих догадок в более качественные. В этом посте мы увидим, что всё начинается с прямой линии: линейная регрессия даёт первую догадку, а градиентный спуск продолжает её улучшать.Давайте начнём с чего-то близкого нам: цен на недвижимость. Большие дома стоят больше, маленькие — меньше. Подобный паттерн можно заметить даже без анализа: чем больше места, тем дороже.Если создать график цен, то его форма будет очевидной: идущая вверх нечёткая кривая с долей шума, но вполне определённым трендом.
Введение в многокритериальную оптимизацию, или как потерять чуть меньше денег на крипте
Лежит на струнах пыльРжавеет под окномРазбитый телевизорТы сгладил все углыИ жизнь твоя сплошнойПроклятый компромиссНи вверх ни внизТак поёт группа Би-2 в песне "Компромисс" и с ними трудно не согласиться. Наша жизнь действительно состоит из сплошных проклятых компромиссов между несколькими решениями. Мы пытаемся найти максимально дешёвую, но качественную электронику, ищем экономичный, но быстрый автомобиль и красивого, но надёжного партнёра для отношений.Каждая из этих повседневных задач заключается в поиске оптимума нескольких конфликтующих между собой функций. Это называется

