Как бесплатно съездить в Китай на летнюю школу по машинному обучению — и почему стоит это сделать
Мы в Сколтехе вместе с Harbin Institute of Technology, Институтом AIRI и Альфа-Банком запустили отбор на летнюю школу по машинному обучению
Мал, да удал? Тест Qwen-QwQ-32B на реальных задачах
Число параметров всегда имело значение — по крайней мере, так нас убеждали. Этой догме следовали до тех пор, пока 6 марта Alibaba не представила QwQ-32B — компактную модель с 32 млрд параметров, бросившую вызов тяжеловесу DeepSeek‑R1
Илон Маск и xAI запускают API для модели Grok 3
Компания Илона Маска, xAI, представила долгожданный API для своей флагманской модели Grok 3
Tesla начала использовать систему автопилота FSD Unsupervised для движения новых электромобилей на заводе Giga Texas
Автопроизводитель Tesla показал
Создание искусственных сомнений значительно повышает точность математических вычислений ИИ
Языковые модели лучше справляются с математикой при использовании "верифицируемой траектории рассуждений" (обзор модели rStar-Math)Что делает ИИ-систему хорошей в математике? Не сырая вычислительная мощность, а нечто почти противоречивое: невротичная тщательность в проверке своей правоты.
Агенты в Pydantic AI от вызова LLM до MCP
ВведениеВсем привет, сегодня я расскажу вам о том, как делать можно делать агентов с помощью Pydantic AI.Pydantic AI - фреймворк от создателей Pydantic - популярной библиотеки для валидации данных в Python с ядром на Rust.Начнем с простых примеров в виде вызова LLM , а затем постепенно будем усложнять задачу, создавая более сложного агента.Виртуальное окружение.В качестве пакетного менеджера в данном проекте используется uv, однако вы можете использовать любой другой, удобный вам, просто имейте это ввиду при установке пакетов.РепозиторийВесь код примеров ниже доступен на
NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST
Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные вычисления, биологическая неправдоподобность. Недавно я наткнулся на интересную статью «NOPROP: TRAINING NEURAL NETWORKS WITHOUT BACK‑PROPAGATION OR FORWARD‑PROPAGATION» (Li, Teh, Pascanu, arXiv:2403.13 502), которая обещает обучение вообще без сквозного backprop и даже без полного прямого прохода во время обучения! Идея показалась захватывающей, и мы (я и ИИ‑ассистент Gemini) решили попробовать ее реализовать на PyTorch для MNIST.
КОНФИДЕНЦИАЛЬНОСТЬ МЁРТВА: ЯНДЕКС И ВК ОБУЧАЮТ ИИ НА ВАШИХ ЛИЧНЫХ ДАННЫХ?
Счёт производства индусов идёт на секунды по мнению Алисы ПРОНедавно Яндекс "подарил" мне месячную подпись

