Машинное обучение. - страница 368

Llama 4 плоха во всём

Выпущенные в прошлую субботу Llama Scout (17 миллиардов активных параметров, 16 экспертов, 109 миллиардов параметров суммарно) и Llama Maverick (17 миллиардов активных параметров, 128 экспертов, 400 миллиардов параметров суммарно) выглядят крайне разочаровывающе. Они разочаровывают настолько, что пользователи даже предполагают причиной неправильную конфигурацию; они задаются вопросами и спорят о том, насколько сильно манипулировали бенчмарками.

продолжить чтение

BrowseComp: новый тест для ИИ-агентов по поиску информации в интернете от OpenAI

BrowseComp

продолжить чтение

Как бесплатно съездить в Китай на летнюю школу по машинному обучению — и почему стоит это сделать

Мы в Сколтехе вместе с Harbin Institute of Technology, Институтом AIRI и Альфа-Банком запустили отбор на летнюю школу по машинному обучению

продолжить чтение

Мал, да удал? Тест Qwen-QwQ-32B на реальных задачах

Число параметров всегда имело значение — по крайней мере, так нас убеждали. Этой догме следовали до тех пор, пока 6 марта Alibaba не представила QwQ-32B — компактную модель с 32 млрд параметров, бросившую вызов тяжеловесу DeepSeek‑R1

продолжить чтение

Илон Маск и xAI запускают API для модели Grok 3

Компания Илона Маска, xAI, представила долгожданный API для своей флагманской модели Grok 3

продолжить чтение

Tesla начала использовать систему автопилота FSD Unsupervised для движения новых электромобилей на заводе Giga Texas

Автопроизводитель Tesla показал

продолжить чтение

Создание искусственных сомнений значительно повышает точность математических вычислений ИИ

Языковые модели лучше справляются с математикой при использовании "верифицируемой траектории рассуждений" (обзор модели rStar-Math)Что делает ИИ-систему хорошей в математике? Не сырая вычислительная мощность, а нечто почти противоречивое: невротичная тщательность в проверке своей правоты.

продолжить чтение

Агенты в Pydantic AI от вызова LLM до MCP

ВведениеВсем привет, сегодня я расскажу вам о том, как делать можно делать агентов с помощью Pydantic AI.Pydantic AI - фреймворк от создателей Pydantic - популярной библиотеки для валидации данных в Python с ядром на Rust.Начнем с простых примеров в виде вызова LLM , а затем постепенно будем усложнять задачу, создавая более сложного агента.Виртуальное окружение.В качестве пакетного менеджера в данном проекте используется uv, однако вы можете использовать любой другой, удобный вам, просто имейте это ввиду при установке пакетов.РепозиторийВесь код примеров ниже доступен на

продолжить чтение

NoProp: Реальный опыт обучения без Backprop – от провала к 99% на MNIST

Всем привет! Обучение нейронных сетей с помощью обратного распространения ошибки (backpropagation) — это стандарт де‑факто. Но у него есть ограничения: память, последовательные вычисления, биологическая неправдоподобность. Недавно я наткнулся на интересную статью «NOPROP: TRAINING NEURAL NETWORKS WITHOUT BACK‑PROPAGATION OR FORWARD‑PROPAGATION» (Li, Teh, Pascanu, arXiv:2403.13 502), которая обещает обучение вообще без сквозного backprop и даже без полного прямого прохода во время обучения! Идея показалась захватывающей, и мы (я и ИИ‑ассистент Gemini) решили попробовать ее реализовать на PyTorch для MNIST.

продолжить чтение

КОНФИДЕНЦИАЛЬНОСТЬ МЁРТВА: ЯНДЕКС И ВК ОБУЧАЮТ ИИ НА ВАШИХ ЛИЧНЫХ ДАННЫХ?

Счёт производства индусов идёт на секунды по мнению Алисы ПРОНедавно Яндекс "подарил" мне месячную подпись

продолжить чтение