глубокое обучение. - страница 2

Трансформеры: технология, лежащая в основе больших языковых моделей | Глубокое обучение

Автор оригинала: Грант СандерсонЧто такое модель GPT?Формально говоря, GPT — это Generative Pre-Trained Transformer (генеративный предобученный трансформер). Первые два слова говорят сами за себя: generative означает, что модель генерирует новый текст; pre-trained означает, что модель была обучена на больших объёмах данных. На чём мы сосредоточимся, так это на transformer-аспекте языковой модели — главном двигателе недавнего бума в области ИИ.Что такое Трансформер (Transformer)?

продолжить чтение

Новые алгоритмы ускоряют машинное обучение в децентрализованных сетях

продолжить чтение

Как выбрать облачный GPU-инстанс для развертывания ИИ-моделей: практическое руководство

Разбираем ключевые критерии, ловушки и лайфхаки для эффективного запуска ML-проектов в облакеВведениеРазвертывание ИИ-моделей в облаке — стандартная задача для современных ML-инженеров. Но выбор подходящего GPU-инстанса часто превращается в «лотерею»: переплата за избыточные ресурсы или, наоборот, «тормоза» из-за недостаточной мощности. В этой статье разберем, как не ошибиться с выбором облачного GPU, сохранив баланс между производительностью и бюджетом. Акцент сделаем на реальных кейсах — от обучения нейросетей до инференса в production.Почему «просто взять самый мощный GPU» — плохая идея?

продолжить чтение

Мир после GPT-5: как одна презентация обрушила веру в технологическое чудо

Звезда смерти. Фото: stunt / Wallpapers.com Бизнесмены и энтузиасты затаили дыхание. Гендиректор OpenAI Сэм Альтман обещал ни много ни мало РЕВОЛЮЦИЮ. В соцсетях он намекал, что GPT-5 станет «Звездой смерти»

продолжить чтение

Вебинары трека Наука о данных Летней цифровой школы Сбера

Вебинары трека Наука о данных Летней цифровой школы СбераПривет, коллеги ML инженеры, Data scientist'ы и все, кто интересуется искусственным интеллектом, созданием нейросетей, машинным обучением и анализом данных! Принёс вам пачку вебинаров с интенсива трека Наука о данных курсов повышения квалификации Летней цифровой школы Сбера.1) Process Mining

продолжить чтение

Галлюцинации и многообразия. Зачем искусственному интеллекту многомерные миры

Сейчас на Хабре много пишут о галлюцинировании нейронных сетей и больших языковых моделей в частности. Хорошим введением в эту тему, написанным с философских позиций, мне представляется текст уважаемого Дэна Рычковского @DZRobo «Когда ИИ закрывает глаза: путешествие между воображением и галлюцинациями». Базовое техническое погружение в тему вы найдёте в статье уважаемой @toppal «Причины возникновения галлюцинаций LLM», это перевод академической статьи

продолжить чтение

Пеликаны, сарказм и логические игры — забавные LLM-бенчмарки

Новые нейронки появляются чуть ли не еженедельно и каждая борется за первенство в лидербордах. Но есть и другой способ оценить их — например, с помощью необычных тестов. Мы в beeline cloud подобрали креативные бенчмарки: от рисования птиц на велосипедах до игр в духе логических загадок с наводящими вопросами.

продолжить чтение

«Скайнет» наоборот: как вырастить и обучить ИИ с помощью Дарвин-Гёдель машины для улучшения человеческой демографии

Разрабатываем и растим «цифрового губера» - консультанта по вопросам государственного политического управления, демографии и миграции. Решаем задачу оптимизации экономики и миграционной политики для устойчивого демографического роста в 89 регионах с помощью   взаимодействующих друг с другом и обменивающихся опытом ИИ-агентов.   Мультиагентное обучение на основе мутаций, скрещивания и эволюции,  Multi-Agent Deep Deterministic Policy Gradient и Darwin Gödel Machine.

продолжить чтение

Это камень? Это ветка? Это нос! Разбираем подходы, помогающие ИИ распознавать лица на картинках с низким разрешением

"Распознать бы этого шакала"

продолжить чтение

HandReader и Znaki — лучшая архитектура и самый большой набор данных для распознавания русского дактиля

Всем привет! Ранее мы уже писали о нашем наборе данных Bukva — первом наборе данных для распознавания русского дактильного языка в изоляции, который содержит более 3 700 видеороликов, разделённых на 33 класса, каждый из которых соответствует одной букве русского алфавита.Эта статья посвящена распознаванию непрерывного дактильного языка. Мы расскажем о наших моделях, которые добиваются наилучших результатов на наборах данных непрерывного американского дактильного языка ChicagoFSWild и ChicagoFSWild+

продолжить чтение

Rambler's Top100