Машинное обучение. - страница 17

Британские писатели запустили логотип Human Authored для произведений, созданных без использования ИИ

Объединение писателей, иллюстраторов и переводчиков Великобритании (Society of Authors, SoA) запустило логотип Human Authored, который позволит читателям распознавать книги, написанные людьми без использования ИИ. Логотип предлагается размещать на задней обложке.

продолжить чтение

Почему World Model ЛеКуна не спасёт ИИ

После неожиданного развода ЛеКуна и Мета много говорят о том, что тупик прогресса LLM будет преодолён через физику мира. То есть, работа нейросети с физическими данными окружающего мира позволит модели обрести смысл и понимание своих действий. У ЛеКуна есть базовая статья

продолжить чтение

14 аварий на 800 000 миль — и это с водителем за рулём. Почему Tesla избегает тестов в Калифорнии

продолжить чтение

«AGI будет выглядеть как разминка»: Альтман о следующем прорыве в ИИ

Глава OpenAI Сэм Альтман заявил, что в ближайшем будущем может произойти архитектурный прорыв за пределами трансформеров — и что нынешние модели уже достаточно умны, чтобы помочь его найти. Слова прозвучали на открытии TreeHacks 2026 — крупнейшего в мире студенческого хакатона, который проходит в Стэнфорде и собрал более 1000 участников из 30 университетов и 12 стран.

продолжить чтение

Как мы вкатывались в генеративный ИИ и куда катимся дальше

Всем привет!Сегодня я хочу рассказать о внедрении финансового генеративного чат-бота в маркетплейс Выберу.ру и о том опыте, который был приобретен за время запуска этого проекта. Эта статья написана с целью объяснить концепции и трудности, с которыми мы с командой столкнулись, поэтому постараюсь обойтись без особого погружения в технические детали.Приступим.Зачем это нужно?

продолжить чтение

re!think it: Как я уместил корпоративный бэкенд в один промпт (История сборки)

ВведениеВсё началось с утреннего обсуждения того, как языковые модели вообще воспринимают вводный запрос. Насколько на самом деле важно качество описания промпта? Есть ли разница между большим объемом «популярных» слов (водой) и лаконичным запросом, состоящим из малого количества, но редких и "тяжелых" по смыслу терминов?

продолжить чтение

97 часов на одной RTX 4090: MoE с подключаемыми экспертами, самодистилляция и почему перплексия — плохая метрика

Меня зовут Борисов Павел, занимаюсь ML-исследованиями. Последние месяцы ковырялся с архитектурой MoE, где эксперты подключаются поверх замороженной модели. 22 эксперимента на одной RTX 4090, ниже разбор что получилось.Что за архитектураБерём предобученную языковую модель и замораживаем целиком, ни один вес не меняется. К каждому MLP-слою прикручиваем маленький обучаемый модуль, «эксперт». Сверху маршрутизатор — линейный слой на 37 тысяч параметров, который для каждого токена выбирает эксперта.

продолжить чтение

ИИ в образовании: заменят ли нейросети репетиторов и преподавателей

продолжить чтение

Лифт не знает, куда ехать. И это лучший алгоритм, который мы придумали

Вчера я 4 минуты стоял в подъезде и смотрел, как два лифта одновременно поехали вверх. Все два. На табло — 12, 15, 18. Я на первом. Мне на шестой. И я подумал: вот я кучу лет пишу софт, оптимизирую запросы к базе данных, кеширую всё что движется — а эти две коробки на тросах не могут разобраться, кто из них должен спуститься за мной.Потом я погрузился в тему. И выяснил, что они не «не могут разобраться». Они математически

продолжить чтение

Прорыв в робототехнике: AI2 создал роботов, обученных только в симуляции

Исследователи из AI2 разработали роботов, которые успешно работают в реальном мире без предварительного сбора данных из физической среды.

продолжить чтение

1...10...151617181920...3040...394
Rambler's Top100