- BrainTools - https://www.braintools.ru -

Как небольшой набор данных и управление вычислениями могут улучшить работу языковых моделей

Новый подход показывает, что тщательно подобранные обучающие данные и гибкое управление вычислениями во время тестирования могут помочь AI-моделям более эффективно решать сложные задачи, требующие логического мышления [1].

Как небольшой набор данных и управление вычислениями могут улучшить работу языковых моделей - 1

Из почти 60 000 пар вопросов и ответов исследователи выбрали всего 1000 высококачественных примеров, которые соответствовали трём ключевым критериям: они должны были быть сложными, относиться к разным областям знаний и соответствовать высоким стандартам ясности и форматирования. Примеры включали этапы мышления, сгенерированные с помощью Gemini 2.0 Flash Thinking [2].

Несмотря на то, что у s1-32B есть лишь малая часть примеров из других моделей, он очень хорошо справляется с математическими тестами.

Несмотря на то, что у s1-32B есть лишь малая часть примеров из других моделей, он очень хорошо справляется с математическими тестами.

Используя этот компактный, но тщательно подобранный набор данных, исследователи из Стэнфордского университета и Института искусственного интеллекта [3] Аллена обучили языковую модель среднего размера под названием s1-32B на основе Qwen2.5 с 32 миллиардами параметров.

Модель изучила по примерам решений, какие шаги и объяснения приводят к правильным ответам. Благодаря целенаправленному отбору данных обучение [4] заняло всего 26 минут на 16 графических процессорах Nvidia H100 — в общей сложности около 25 часов работы на графическом процессоре. Хотя точные цифры для аналогичных моделей, таких как OpenAI o1 или DeepSeek-R1, неизвестны, они, вероятно, требуют тысяч часов работы на графическом процессоре.

Команда также разработала «бюджетное принуждение» — метод контроля мыслительного процесса модели. Если модель выполняет заданное количество шагов вычислений, она должна выдать ответ. Если модели требуется больше времени, добавление слова «Подождите» побуждает её пересмотреть предыдущий ответ и проверить свои рассуждения на наличие ошибок.

Бюджетное принуждение как эффективная стратегия вмешательства: добавление «подождать» продлевает мыслительный процесс модели, что приводит к самокоррекции с 2 до 3 «r».

Бюджетное принуждение как эффективная стратегия вмешательства: добавление «подождать» продлевает мыслительный процесс модели, что приводит к самокоррекции с 2 до 3 «r».

Ограничение бюджета позволяет пользователям при необходимости корректировать тщательность обучения модели. Тесты показали, что более высокий бюджет, вызванный более частыми командами «Подождите», даёт лучшие результаты. Обученная модель даже превзошла более требовательные к данным модели OpenAI o1-preview и o1-mini в математических тестах.

По сравнению с другими закрытыми и открытыми языковыми моделями, s1-32B демонстрирует свои сильные стороны, особенно в области математики.

По сравнению с другими закрытыми и открытыми языковыми моделями, s1-32B демонстрирует свои сильные стороны, особенно в области математики [5].

Дальнейшие тесты показали, что только сочетание всех трёх критериев отбора данных — сложности, разнообразия и качества — обеспечивает оптимальную производительность. Ограничение отбора отдельными критериями или случайный выбор приводили к ухудшению результатов на 30 процентов.

Интересно, что даже полный набор данных, в 59 раз превышающий по объёму тщательно отобранные 1000 примеров, не улучшил результаты. Контроль бюджета оказался более важным, позволяя точно управлять вычислениями во время тестирования и демонстрируя чёткую связь между вложенными токенами и производительностью.

Увеличение времени на обдумывание за счёт добавления команд «ожидания» приводит к значительному улучшению способности решать математические задачи.

Увеличение времени на обдумывание за счёт добавления команд «ожидания» приводит к значительному улучшению способности решать математические задачи.

Исследование показывает, что небольшой, но хорошо подобранный обучающий набор данных может подготовить языковые модели к решению сложных задач. В сочетании с гибкими вычислениями во время тестирования модели могут работать более эффективно, когда это необходимо, без увеличения их размера.

Хотя s1-32B и принудительное распределение бюджета выглядят многообещающе, результаты тестов отражают производительность только в узком наборе навыков. Исследователи поделились своим кодом и данными о тренировках на GitHub [6], чтобы стимулировать [7] дальнейшее развитие.

Многие исследовательские группы пытались сопоставить ведущие модели искусственного интеллекта в сложных рассуждениях, используя все более большие наборы данных. Недавно OpenAI добавила свою последнюю модель reasoning o3-mini [8] в ChatGPT [9]. Однако китайская компания DeepSeek показала, что конкурентоспособные модели [10] возникают благодаря эффективному использованию ресурсов и реализации хороших идей — одним из них может быть форсирование бюджета.

Источник [11]

Автор: mefdayy

Источник [12]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/11875

URLs in this post:

[1] мышления: http://www.braintools.ru/thinking

[2] Gemini 2.0 Flash Thinking: https://the-decoder.com/gemini-2-0-flash-thinking-googles-smallest-model-takes-lead-in-chatbot-arena/

[3] интеллекта: http://www.braintools.ru/article/7605

[4] обучение: http://www.braintools.ru/article/5125

[5] математики: http://www.braintools.ru/article/7620

[6] GitHub: https://github.com/simplescaling/s1

[7] стимулировать: http://www.braintools.ru/article/5596

[8] o3-mini: https://the-decoder.com/openai-launches-new-reasoning-model-o3-mini-for-free-chatgpt-and-api/

[9] ChatGPT: https://the-decoder.com/chatgpt-is-a-gpt-3-chatbot-from-openai-that-you-can-test-now/

[10] DeepSeek показала, что конкурентоспособные модели: https://the-decoder.com/deepseeks-latest-r1-zero-model-matches-openais-o1-in-reasoning-benchmarks/

[11] Источник: https://the-decoder.com/getting-the-right-data-and-telling-it-to-wait-turns-an-llm-into-a-reasoning-model/

[12] Источник: https://habr.com/ru/companies/bothub/news/879504/?utm_source=habrahabr&utm_medium=rss&utm_campaign=879504

www.BrainTools.ru

Rambler's Top100