- BrainTools - https://www.braintools.ru -
Исследователи из Массачусетского технологического института представили новую платформу под названием SEAL, которая позволяет большим языковым моделям (LLM) генерировать собственные синтетические обучающие данные и совершенствоваться без посторонней помощи.

SEAL работает в два этапа. На первом этапе модель учится создавать эффективные «саморедактируемые» модели с помощью обучения [1] с подкреплением [2]. Эти саморедактируемые модели представляют собой инструкции на естественном языке, которые определяют новые обучающие данные и задают параметры оптимизации. На втором этапе система применяет эти инструкции и обновляет собственные веса с помощью машинного обучения.
Ключевой частью SEAL является алгоритм ReST^EM, который действует как фильтр: он сохраняет и усиливает только те правки, которые действительно улучшают производительность. Алгоритм собирает различные правки, проверяет, какие из них работают, а затем обучает модель, используя только успешные варианты. SEAL также использует адаптеры низкого ранга (LoRA) — метод, который позволяет быстро и легко обновлять модель без переобучения всей модели.
Исследователи протестировали SEAL в двух сценариях. В первом они использовали Qwen2.5-7B для понимания текста. Модель генерировала логические выводы на основе текста, а затем обучалась на собственных результатах.
SEAL достиг точности в 47%, превзойдя метод сравнения с 33,5%. Качество сгенерированных им данных даже превзошло качество GPT-4 [3].1 от OpenAI, несмотря на то, что базовая модель была намного меньше.
Во втором тесте команда использовала Llama 3.2-1B для решения задачи на рассуждение. Здесь модель выбирала различные методы обработки данных и параметры обучения из предустановленного набора инструментов. С помощью SEAL модель достигла 72,5% успеха по сравнению с 20% без предварительной подготовки.
Несмотря на впечатляющие результаты, исследователи обнаружили несколько ограничений. Основная проблема — «катастрофическое забывание»: когда модель выполняет новые задачи, она начинает хуже справляться с предыдущими. Обучение также требует больших ресурсов, поскольку каждая оценка саморедактирования занимает от 30 до 45 секунд.
Команда Массачусетского технологического института рассматривает SEAL как шаг к преодолению так называемой «стены данных» — момента, когда все доступные обучающие данные, созданные человеком, исчерпаны [4]. Кроме того, исследователи предупреждают о риске «краха модели», когда качество моделей снижается из-за слишком интенсивного обучения на низкокачественных данных, сгенерированных ИИ [5]. SEAL может обеспечить непрерывное обучение и создание автономных систем ИИ, которые постоянно адаптируются к новым целям и информации.
Если модели смогут обучаться самостоятельно, усваивая новый материал — например, научные статьи — и генерируя собственные объяснения и выводы, они смогут продолжать совершенствоваться в редких или недостаточно освещённых темах. Такой цикл самостоятельного обучения может помочь языковым моделям выйти за пределы текущих возможностей.
Исходный код SEAL доступен на GitHub [6].
По этой ссылке [7] вы можете получить 100 000 бесплатных токенов для выполнения первых задач на BotHub [8]и приступить к работе с нейросетями прямо сейчас!
Источник [9]
Автор: mefdayy
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/16774
URLs in this post:
[1] обучения: http://www.braintools.ru/article/5125
[2] подкреплением: http://www.braintools.ru/article/5528
[3] GPT-4: https://the-decoder.com/open-ai-gpt-4-announcement/
[4] «стены данных» — момента, когда все доступные обучающие данные, созданные человеком, исчерпаны: https://the-decoder.com/openai-co-founder-says-ai-is-reaching-peak-data-as-it-hits-the-limits-of-the-internet/
[5] низкокачественных данных, сгенерированных ИИ: https://the-decoder.com/ai-data-isnt-destroying-ai-models-after-all-researchers-say/
[6] GitHub: https://github.com/Continual-Intelligence/SEAL
[7] По этой ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7
[8] BotHub : https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=RESEARCHERS_SAY_THEY_MAY_HAVE_FOUND_A_WAY_TO_OVERCOME_THE_DATA_WALL
[9] Источник : https://the-decoder.com/researchers-say-they-may-have-found-a-ladder-to-climb-the-data-wall/
[10] Источник: https://habr.com/ru/companies/bothub/news/923100/?utm_source=habrahabr&utm_medium=rss&utm_campaign=923100
Нажмите здесь для печати.