- BrainTools - https://www.braintools.ru -

Новую LLM talkie обучили на текстах до 1931 года

Трое ИИ-исследователей, включая Алека Редфорда (соавтора GPT 1.0), опубликовали новую языковую модель talkie с 13 миллиардами параметров. Она обучена исключительно на текстах, опубликованных до 1931 года, так что и знания о мире у неё заканчиваются этим годом, и в стилистике текста она отталкивается от старых источников. Пообщаться с ней можно на официальном сайте [1].

Создатели модели отмечают [2], что она полезна в различных исследовательских целях:

  • Можно с её помощью исследовать, насколько LLM способны прогнозировать. Поскольку нам уже известны события после 1931-го, можем оценивать, получится ли у модели правильно предположить что-либо о них.

  • Можно смотреть, насколько способна модель в областях, отсутствовавших в её обучающем датасете. Эта LLM изначально не знает ничего про код. Что будет, если объяснять ей в промптах и просить что-то сделать? Оказывается, что в некоторых случаях у неё получилось давать правильные ответы на Python, когда речь о простых однострочниках.

Новую LLM talkie обучили на текстах до 1931 года - 1

Также в её случае полезно отсутствие проблемы контаминации. Модели, обученные на всём содержании интернета, могут знать многое о тех бенчмарках, с помощью которых их оценивают, и «подстраиваться» под правильные результаты. В результате у людей возникает искажённое и завышенное представление об их возможностях моделей. А у talkie нет информации о бенчмарках, что позволяет проводить замеры точнее.

Авторы отмечают, что можно будет ещё больше понять, если сравнить ретро-модели разных размеров. Поэтому они намерены в будущем обучать новые с большим количеством параметров.

Автор: Kodik_AI

Источник [3]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/29491

URLs in this post:

[1] официальном сайте: https://talkie-lm.com/chat

[2] отмечают: https://talkie-lm.com/introducing-talkie

[3] Источник: https://habr.com/ru/companies/kodik/news/1028908/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1028908

www.BrainTools.ru

Rambler's Top100