knn.

knn.

Как написать собственные классы классификации для маленьких

В прошлый раз я уже рассказывала о том, как в ходе обучения в "Школе 21" создавала класс линейной регресии, на этот раз будем рассматривать реализацию LogisticRegression, GaussianNB, KNN. Как и в прошлый раз, минимум теории, максимум практики.LogisticRegressionКласс логической регрессии не сильно отличается от линейной. Как и в линейной регрессии, происходит вычисление линейной комбинации признаков с весами и смещением:

продолжить чтение

Модели машинного обучения: что могут спросить на интервью

Привет, Хабр!Сегодня рассмотрим некоторые вопросы, которые могут попасться на собеседовании на ML позиции. Как KNN ведёт себя при увеличении размерности данных? Начнём с KNN (k ближайших соседей). В малых размерностях (скажем, 2–3) расстояния между точками вполне осмысленны. Но когда число признаков вырастает до 100+, всё меняется. В такой ситуации расстояния между точками начинают стремиться к равенству — словно все объекты сидят за круглым столом, и каждый от каждого отстоит примерно на одинаковом расстоянии. Это называется проклятием размерности

продолжить чтение

Rambler's Top100