глубокое обучение. - страница 2

Вебинары трека Наука о данных Летней цифровой школы Сбера

Вебинары трека Наука о данных Летней цифровой школы СбераПривет, коллеги ML инженеры, Data scientist'ы и все, кто интересуется искусственным интеллектом, созданием нейросетей, машинным обучением и анализом данных! Принёс вам пачку вебинаров с интенсива трека Наука о данных курсов повышения квалификации Летней цифровой школы Сбера.1) Process Mining

продолжить чтение

Галлюцинации и многообразия. Зачем искусственному интеллекту многомерные миры

Сейчас на Хабре много пишут о галлюцинировании нейронных сетей и больших языковых моделей в частности. Хорошим введением в эту тему, написанным с философских позиций, мне представляется текст уважаемого Дэна Рычковского @DZRobo «Когда ИИ закрывает глаза: путешествие между воображением и галлюцинациями». Базовое техническое погружение в тему вы найдёте в статье уважаемой @toppal «Причины возникновения галлюцинаций LLM», это перевод академической статьи

продолжить чтение

Пеликаны, сарказм и логические игры — забавные LLM-бенчмарки

Новые нейронки появляются чуть ли не еженедельно и каждая борется за первенство в лидербордах. Но есть и другой способ оценить их — например, с помощью необычных тестов. Мы в beeline cloud подобрали креативные бенчмарки: от рисования птиц на велосипедах до игр в духе логических загадок с наводящими вопросами.

продолжить чтение

«Скайнет» наоборот: как вырастить и обучить ИИ с помощью Дарвин-Гёдель машины для улучшения человеческой демографии

Разрабатываем и растим «цифрового губера» - консультанта по вопросам государственного политического управления, демографии и миграции. Решаем задачу оптимизации экономики и миграционной политики для устойчивого демографического роста в 89 регионах с помощью   взаимодействующих друг с другом и обменивающихся опытом ИИ-агентов.   Мультиагентное обучение на основе мутаций, скрещивания и эволюции,  Multi-Agent Deep Deterministic Policy Gradient и Darwin Gödel Machine.

продолжить чтение

Это камень? Это ветка? Это нос! Разбираем подходы, помогающие ИИ распознавать лица на картинках с низким разрешением

"Распознать бы этого шакала"

продолжить чтение

HandReader и Znaki — лучшая архитектура и самый большой набор данных для распознавания русского дактиля

Всем привет! Ранее мы уже писали о нашем наборе данных Bukva — первом наборе данных для распознавания русского дактильного языка в изоляции, который содержит более 3 700 видеороликов, разделённых на 33 класса, каждый из которых соответствует одной букве русского алфавита.Эта статья посвящена распознаванию непрерывного дактильного языка. Мы расскажем о наших моделях, которые добиваются наилучших результатов на наборах данных непрерывного американского дактильного языка ChicagoFSWild и ChicagoFSWild+

продолжить чтение

Агенты. Деньги. Бизнес и Работа

Недельный Дайджест Агентной Экономики.По материалам Fast Company, Venture Beat, CIO, NY Times, New Scientist, Wired, McKinsey и других ресурсов. Минимум булшита, максимум инсайтов.Решается судьба будущего интернета: станет ли он открытым пространством для всех или превратится в сеть закрытых экосистем, контролируемых Big Tech.Авторы считают, что ключ к демократизации — поддержка открытых, децентрализованных протоколов и участие независимых разработчиков в формировании стандартов.И не поспоришь, но практическим решением вижу массовое

продолжить чтение

Как устроено глубокое обучение нейросетей

Глубокое обучение — Подход в машинном обучении, основанный на многослойных нейронных сетях. Нейронные сети, в свою очередь, вдохновлены биологическими нейронами, которые взаимодействуют между собой, образуя структуры, способные обрабатывать информацию, анализировать её и выполнять классификацию, генерировать текст и много чего ещё. Модели глубокого обучения это те же нейронные сети, но с огромным количеством слоёв, каждый из которых выполняет свою функцию по обработке данных.

продолжить чтение

Как прямая помогает обучать машины

В контексте компьютеров, обучение — это всего лишь превращение плохих догадок в более качественные. В этом посте мы увидим, что всё начинается с прямой линии: линейная регрессия даёт первую догадку, а градиентный спуск продолжает её улучшать.Давайте начнём с чего-то близкого нам: цен на недвижимость. Большие дома стоят больше, маленькие — меньше. Подобный паттерн можно заметить даже без анализа: чем больше места, тем дороже.Если создать график цен, то его форма будет очевидной: идущая вверх нечёткая кривая с долей шума, но вполне определённым трендом.

продолжить чтение

Больше данных — ровнее ландшафт нейросетей

Представьте себе, что обучение нейросети – это путешествие по пересечённой местности, где высота рельефа соответствует величине функции потерь

продолжить чтение

Rambler's Top100