Машинное обучение. - страница 378

Meta* и другие технологические гиганты наращивают мощности за счёт возобновляемых источников энергии

На этой неделе Meta объявила, что покупает 200 мегаватт солнечной энергии у международной энергетической компании Engie. Это приобретение стало очередным шагом в расширении портфеля возобновляемых источников энергии Meta, который уже превышает 12 гигаватт.

продолжить чтение

Google выпустила бесплатное руководство по работе с нейросетевыми агентами

Google опубликовала на платформе Kaggle бесплатное руководство по работе с нейросетевыми агентами. В документе можно найти описание архитектур, методы обучения, подходы к созданию агентов и советы по работе с LangChain и LangGraph.

продолжить чтение

Законы масштабирования нейронных языковых моделей

Инвестиции, открытие новых законов... Сотни лет прошло, а ничего не меняется...Эта статья от 23 января 2020 года не так известна, как "Всё, что вам нужно - это внимание

продолжить чтение

Первый в мире чат-бот на основе искусственного интеллекта ELIZA возродили спустя 60 лет

Исследователи обнаружили утерянный компьютерный код и использовали его для воссоздания первого чат-бота на основе искусственного интеллекта ELIZA, созданного 60 лет назад.

продолжить чтение

Новая модель искусственного интеллекта «Тitans» от Google обеспечивает долговременную память языковых моделей

Исследователи Google разработали новый тип модели Transformer, которая дает языковым моделям нечто похожее на долговременную память. Система может обрабатывать гораздо более длинные последовательности информации, чем текущие модели, что приводит к лучшей производительности при выполнении различных задач.Новая архитектура «Titans» черпает вдохновение из того, как работает человеческая память. Объединяя искусственную краткосрочную и долгосрочную память через блоки внимания и MLP памяти, система может работать с длинными последовательностями информации.

продолжить чтение

Распознавание образов в мозге с помощью микроплееров

Введение Во многих системах при обучении распознаванию образов загружается большое количество различных изображений этого образа. Однако человек запомнив, например, цифру 3 на примере одного из ее изображений, способен распознавать тройки самых разных форм, размеров и ориентаций. Причем распознавать быстро и безошибочно. Как такое возможно? Да что человек, возьмем более простые организмы, скажем насекомых. Неужели в нервную систему комара для того, чтобы он умел распознавать окружающие объекты нужно загружать сотни разных изображений этих объектов, как это делается в системах машинного обучения ?

продолжить чтение

Эмоциональное принятие решений в LLM: исследование, которое мы показали на NeurIPS 2024

Привет, Хабр! Меня зовут Михаил, я — младший научный сотрудник группы «ИИ в промышленности» в AIRI. В этом году на конференции NeurIPS 2024 мы представили работу, посвященную сложной теме современного ИИ — эмоциональным большим языковым моделям (LLM) В целом понятно, что LLM умеют так или иначе эмулировать эмоции, ведь их обучают по большей части на данных, сгенерированных человеком. А человек — весьма эмоциональное создание. Но что такое правильная эмуляция?насколько правильно происходит эта эмуляция?

продолжить чтение

Мечтают ли электроовцы об андроидах?

В научном журнале Society вышло исследование

продолжить чтение

Hugging Face представила бесплатный курс по работе с нейросетевыми агентами

Площадка Hugging Face представила бесплатный курс по работе с нейросетевыми агентами. В конце обучения студенты могут получить сертификат, подтверждающий успешное усвоение материала.

продолжить чтение

Google представили Titan: архитектуру нейросетей, которая может стать новой серебряной пулей LLM

Все современные LLM построены на архитектуре трансформера. GPT-4o от OpenAI, Gemini от Google, Claude Sonet от Anthropic, Grok от xAI... перечислять можно долго. Трансформер – действительно очень мощная архитектура (и кстати тоже была придумала в Google), но и в ней есть свои недостатки.

продолжить чтение

Rambler's Top100