Поговорим об основах машинного обучения
Различные направления машинного обучения сейчас используются практически везде и порой сложно понять какое направление какие задачи решает. Сегодня мы попробуем разобраться в ключевых особенностях машинного обучения, рассмотрим из каких основных направлений состоит ML и как они используются. Основная цель этой статьи помочь начинающим специалистам разобраться с тем, что из себя представляет машинное обучение.Цель машинного обучения
Топ вопросов с NLP собеседований: трансформеры и внимание до малейших деталей
Знание механизма внимания и трансформеров - база любых собеседований на все грейды в NLP!Статья не рассчитана на изучение тем с нуля, если вы еще не слышали ничего про attention, то лучше обратиться к полноценным лекциям.Это чеклист и тренажёр, по которому стоит пройтись перед техническим интервью по NLP, чтобы закрыть пробелы и вспомнить необходимую базу.Содержание:Архитектура трансформераМеханизм вниманияПозиционные эмбеддингиТокенизацияТрансформерные архитектуры (BERT, GPT и тд)Полезные материалы
Реализуем компьютерное зрение на практике
На тему компьютерного зрения есть множество различных публикаций, которые в основном рассказывают о применении этой технологии в разных отраслях. Однако, зачастую публикации содержат лишь общую информацию о том, что реализовано и для каких задач, но при этом отсутствует описание того, как это можно сделать.В нашей статье мы поговорим о том, как можно реализовать на Python навигационную систему на основе машинного зрения для автономных транспортных средств, проанализировать медицинские изображения и выполнить генерацию новых изображений из набора данных уже существующих.
Ученые выяснили, как стабилизируется обучение нейросетей при увеличении объема данных
Исследователи из МФТИ впервые систематически изучили, как изменяется и стабилизируется процесс обучения нейронных сетей по мере добавления новых данных. Их работа, сочетающая теоретический анализ и обширные эксперименты, показывает, что так называемый «ландшафт функции потерь» нейросети сходится к определенной форме при увеличении размера выборки, что имеет важные последствия для понимания глубинного обучения и разработки методов определения необходимого объема данных. Исследование опубликовано в Doklady Mathematics.
Книга: «Математика и архитектура глубокого обучения»
Привет, Хаброжители! Узнайте, что происходит внутри черного ящика! Для использования глубокого обучения вам
ESP32 + LD2410: Архитектуры нейронных сетей для классификации движений
Схема подключения.
Трансформеры: технология, лежащая в основе больших языковых моделей | Глубокое обучение
Автор оригинала: Грант СандерсонЧто такое модель GPT?Формально говоря, GPT — это Generative Pre-Trained Transformer (генеративный предобученный трансформер). Первые два слова говорят сами за себя: generative означает, что модель генерирует новый текст; pre-trained означает, что модель была обучена на больших объёмах данных. На чём мы сосредоточимся, так это на transformer-аспекте языковой модели — главном двигателе недавнего бума в области ИИ.Что такое Трансформер (Transformer)?
Как выбрать облачный GPU-инстанс для развертывания ИИ-моделей: практическое руководство
Разбираем ключевые критерии, ловушки и лайфхаки для эффективного запуска ML-проектов в облакеВведениеРазвертывание ИИ-моделей в облаке — стандартная задача для современных ML-инженеров. Но выбор подходящего GPU-инстанса часто превращается в «лотерею»: переплата за избыточные ресурсы или, наоборот, «тормоза» из-за недостаточной мощности. В этой статье разберем, как не ошибиться с выбором облачного GPU, сохранив баланс между производительностью и бюджетом. Акцент сделаем на реальных кейсах — от обучения нейросетей до инференса в production.Почему «просто взять самый мощный GPU» — плохая идея?
Мир после GPT-5: как одна презентация обрушила веру в технологическое чудо
Звезда смерти. Фото: stunt / Wallpapers.com Бизнесмены и энтузиасты затаили дыхание. Гендиректор OpenAI Сэм Альтман обещал ни много ни мало РЕВОЛЮЦИЮ. В соцсетях он намекал, что GPT-5 станет «Звездой смерти»

