Машинное обучение. - страница 217

NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST

Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные вычисления, биологическая неправдоподобность. Недавно я наткнулся на интересную статью «NOPROP: TRAINING NEURAL NETWORKS WITHOUT BACK‑PROPAGATION OR FORWARD‑PROPAGATION» (Li, Teh, Pascanu, arXiv:2403.13 502), которая обещает обучение вообще без сквозного backprop и даже без полного прямого прохода во время обучения! Идея показалась захватывающей, и мы (я и ИИ‑ассистент Gemini) решили попробовать ее реализовать на PyTorch для MNIST.

продолжить чтение

КОНФИДЕНЦИАЛЬНОСТЬ МЁРТВА: ЯНДЕКС И ВК ОБУЧАЮТ ИИ НА ВАШИХ ЛИЧНЫХ ДАННЫХ?

Счёт производства индусов идёт на секунды по мнению Алисы ПРОНедавно Яндекс "подарил" мне месячную подпись

продолжить чтение

Буря в стакане ИИ

Из каждого утюга трубят про то, что ИИ, AGI и т.д. изменит все, и мои уши устали от этого.Поэтому решил на цифрах разобраться так ли это. Нынешний хайп является пузырём, или новой трансформирующей волной. И сопоставимо ли появление LLM с появлением ПК, интернета и переходом на мобильные устройства. Доводы будем подкреплять расчетом. И начнем мы с анализа текущих инвестиций в ИИ (не люблю это слово, но ML здесь меньше подходит).В статье

продолжить чтение

Код, теория и практика: подборка книг по NLP

Привет! Это Никита Малыхин, Tech Lead в команде AdTech в Центре Big Data МТС. В прошлый раз я поделился

продолжить чтение

Динамическое ценообразование в каршеринге: путь от таблички до ML

продолжить чтение

Я работал в продуктовой команде 7 лет, а потом пришла нейросеть

Эту историю для моего блога рассказал Леонид Шашков и Илья Головко, CPO в крупном финтехе. Еще пару лет назад моя работа продакт-менеджера выглядела как бесконечное жонглирование задачами: исследования пользователей, анализ конкурентов, документация, постановка задач, презентации... И так по кругу. Большую часть времени съедали рутинные задачи, которые требовали механической работы, но не давали простора для творчества. А теперь...

продолжить чтение

Google Cloud представляет мультиагентные возможности в Vertex AI

Google хочет сделать многоагентные системы искусственного интеллекта не просто возможными, но и практичными для предприятий, и обновления Vertex AI подтверждают это. Представленные на Google Cloud Next, эти усовершенствования превращают Vertex в полнофункциональную платформу для создания, подключения и развёртывания ИИ-агентов, которые анализируют, планируют и взаимодействуют в рамках корпоративных систем.

продолжить чтение

Генеральный директор DeepMind заявил, что Google объединит свои модели ИИ Gemini и Veo

В недавнем выпуске подкаста Possible, который ведёт соучредитель LinkedIn Рид Хоффман, генеральный директор Google DeepMind Демис Хассабис заявил, что Google планирует в конечном итоге объединить свои модели ИИ Gemini с моделями Veo, генерирующими видео, чтобы улучшить понимание физического мира.

продолжить чтение

Знакомьтесь, HIGGS — новый метод сжатия LLM от исследователей из Яндекса и ведущих научно-технологических вузов

Исследователи из Yandex Research, НИУ ВШЭ, MIT, KAUST и ISTA разработали новый метод HIGGS для сжатия больших языковых моделей. Его особенность — высокая производительность даже на слабых устройствах без существенной потери качества. Например, это первый метод квантизации, с помощью которого удалось сжать DeepSeek R1 размером 671 млрд параметров без значительного ухудшения модели.

продолжить чтение

RAG: борьба с низким качеством ответов в условиях экономии памяти на GPU

Привет, Хабр! Меня зовут Саприн Семён. Я занимаюсь анализом данных и машинным обучением в компании ПГК Диджитал. Сегодня мы начинаем серию статей, в которой я расскажу о том, как мы с командой разрабатывали ИИ-помощника, а также приведу практические кейсы по улучшению точности ответов с минимальными затратами памяти графических процессоров. Как вы уже могли догадаться, наш ИИ-помощник разработан на основе RAG (Retrieval-Augmented Generation) системы. Хотя принцип работы RAG многим уже знаком и не вызывает того самого «вау», я всё же кратко напомню, как эта система работает, почему она так популярна и почему её ответам можно доверять.

продолжить чтение

Rambler's Top100