- BrainTools - https://www.braintools.ru -

PDF ожил: Stanford превратил научные статьи в говорящих AI-ассистентов

PDF ожил: Stanford превратил научные статьи в говорящих AI-ассистентов - 1

Учёные из Стэнфорда представили Paper2Agent — open-source инструмент, который превращает привычные PDF-статьи в интерактивных AI-ассистентов. Теперь вместо сухого текста и громоздких репозиториев исследователь получает живую систему, способную объяснять работу простым языком, запускать код и комбинировать методы разных исследований.

Рисунок дает обзор CUDA-оптимизации, управляемой большими языковыми моделями (LLM), и основных результатов. Функциональный код PyTorch (слева) преобразуется в соответствующее ядро CUDA, которое затем загружается для замены операции PyTorch-eager.  В центре схемы показан процесс оптимизации во время выполнения, использующий преобразованное ядро.  Этот процесс параллельно выбирает, проверяет, тестирует и оценивает пакет ядер.  Для обеспечения корректности и эффективной фильтрации ядер-кандидатов используются верификаторы на основе языковых моделей.  Справа представлены результаты, демонстрирующие способность подхода точно определять некорректные ядра (вверху) и находить высокопроизводительные ядра (внизу) на предложенном robust-kbench.  Отмечается, что улучшения времени выполнения сложнее достичь для обратных вычислений ядра, чем для прямых.

Рисунок дает обзор CUDA-оптимизации, управляемой большими языковыми моделями (LLM), и основных результатов. Функциональный код PyTorch (слева) преобразуется в соответствующее ядро CUDA, которое затем загружается для замены операции PyTorch-eager. В центре схемы показан процесс оптимизации во время выполнения, использующий преобразованное ядро. Этот процесс параллельно выбирает, проверяет, тестирует и оценивает пакет ядер. Для обеспечения корректности и эффективной фильтрации ядер-кандидатов используются верификаторы на основе языковых моделей. Справа представлены результаты, демонстрирующие способность подхода точно определять некорректные ядра (вверху) и находить высокопроизводительные ядра (внизу) на предложенном robust-kbench. Отмечается, что улучшения времени выполнения сложнее достичь для обратных вычислений ядра, чем для прямых.

В основе проекта два ключевых слоя. Paper2MCP анализирует статью вместе с её кодом и превращает методы в полноценные инструменты внутри MCP-сервера. Дальше Agent Layer подключает этот сервер к чат-агенту вроде ChatGPT или Claude Code. В итоге каждая статья обретает своего персонального ассистента, который не только пересказывает её, но и выполняет заложенные в ней вычислительные эксперименты.

Наш эволюционный подход к оптимизации демонстрирует масштабируемость во время тестирования, обнаруживая лучшие ускорения с большим количеством попыток.

Наш эволюционный подход к оптимизации демонстрирует масштабируемость во время тестирования, обнаруживая лучшие ускорения с большим количеством попыток.

Каждый такой «сервер статьи» включает три элемента: Tools (функции, например прогноз экспрессии генов), Resources (тексты, датасеты, код) и Prompts (шаблоны пошаговых сценариев). Вместо того чтобы вручную поднимать окружения, импортировать десятки библиотек и гадать с форматами данных, исследователь может просто задать вопрос и сразу получить результат.

На рисунке показан конвейер и результаты настройки запросов для верификатора на основе больших языковых моделей (LLM). Слева представлен обзор рабочего процесса. Набор данных с предложениями ядер используется для итеративного улучшения способности LLM-верификатора обнаруживать ошибки. Справа вверху показаны результаты точности по поколениям для специализированных верификаторов, нацеленных на разные типы ошибок CUDA: ошибки компиляции, памяти и численные ошибки.  Внизу справа демонстрируется, что настроенные запросы  обобщаются на различные нижестоящие модели верификаторов.

На рисунке показан конвейер и результаты настройки запросов для верификатора на основе больших языковых моделей (LLM). Слева представлен обзор рабочего процесса. Набор данных с предложениями ядер используется для итеративного улучшения способности LLM-верификатора обнаруживать ошибки [1]. Справа вверху показаны результаты точности по поколениям для специализированных верификаторов, нацеленных на разные типы ошибок CUDA: ошибки компиляции, памяти [2] и численные ошибки. Внизу справа демонстрируется, что настроенные запросы обобщаются на различные нижестоящие модели верификаторов.

Фактически Paper2Agent открывает путь к новому формату научной коммуникации: статьи перестают быть статичными и становятся рабочими инструментами. Это может ускорить воспроизводимость исследований, облегчить доступ к передовым методам и сделать науку гораздо более открытой.

GitHub-репозиторий [3]проекта уже доступен!


Делегируйте часть рутинных задач вместе с BotHub! [4] Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [5] вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Подробнее [6]

Автор: cognitronn

Источник [7]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/19706

URLs in this post:

[1] ошибки: http://www.braintools.ru/article/4192

[2] памяти: http://www.braintools.ru/article/4140

[3] GitHub-репозиторий : https://github.com/SakanaAI/robust-kbench

[4] BotHub!: https://bothub.chat/?utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_source=contentmarketing&utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_medium=habr&utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_campaign=news&utm%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C%5C_content=PDF%20COMES%20ALIVE:%20STANFORD%20TURNS%20SCIENTIFIC%20PAPERS%20INTO%20TALKING%20AI%20ASSISTANTS

[5] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7

[6] Подробнее: https://arxiv.org/abs/2509.14279

[7] Источник: https://habr.com/ru/companies/bothub/news/948668/?utm_source=habrahabr&utm_medium=rss&utm_campaign=948668

www.BrainTools.ru

Rambler's Top100