PDF ожил: Stanford превратил научные статьи в говорящих AI-ассистентов. ai.. ai. ai-ассистент.. ai. ai-ассистент. PDF.. ai. ai-ассистент. PDF. Блог компании BotHub.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь. ИИ.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. ai. ai-ассистент. PDF. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.
PDF ожил: Stanford превратил научные статьи в говорящих AI-ассистентов - 1

Учёные из Стэнфорда представили Paper2Agent — open-source инструмент, который превращает привычные PDF-статьи в интерактивных AI-ассистентов. Теперь вместо сухого текста и громоздких репозиториев исследователь получает живую систему, способную объяснять работу простым языком, запускать код и комбинировать методы разных исследований.

Рисунок дает обзор CUDA-оптимизации, управляемой большими языковыми моделями (LLM), и основных результатов. Функциональный код PyTorch (слева) преобразуется в соответствующее ядро CUDA, которое затем загружается для замены операции PyTorch-eager.  В центре схемы показан процесс оптимизации во время выполнения, использующий преобразованное ядро.  Этот процесс параллельно выбирает, проверяет, тестирует и оценивает пакет ядер.  Для обеспечения корректности и эффективной фильтрации ядер-кандидатов используются верификаторы на основе языковых моделей.  Справа представлены результаты, демонстрирующие способность подхода точно определять некорректные ядра (вверху) и находить высокопроизводительные ядра (внизу) на предложенном robust-kbench.  Отмечается, что улучшения времени выполнения сложнее достичь для обратных вычислений ядра, чем для прямых.
Рисунок дает обзор CUDA-оптимизации, управляемой большими языковыми моделями (LLM), и основных результатов. Функциональный код PyTorch (слева) преобразуется в соответствующее ядро CUDA, которое затем загружается для замены операции PyTorch-eager. В центре схемы показан процесс оптимизации во время выполнения, использующий преобразованное ядро. Этот процесс параллельно выбирает, проверяет, тестирует и оценивает пакет ядер. Для обеспечения корректности и эффективной фильтрации ядер-кандидатов используются верификаторы на основе языковых моделей. Справа представлены результаты, демонстрирующие способность подхода точно определять некорректные ядра (вверху) и находить высокопроизводительные ядра (внизу) на предложенном robust-kbench. Отмечается, что улучшения времени выполнения сложнее достичь для обратных вычислений ядра, чем для прямых.

В основе проекта два ключевых слоя. Paper2MCP анализирует статью вместе с её кодом и превращает методы в полноценные инструменты внутри MCP-сервера. Дальше Agent Layer подключает этот сервер к чат-агенту вроде ChatGPT или Claude Code. В итоге каждая статья обретает своего персонального ассистента, который не только пересказывает её, но и выполняет заложенные в ней вычислительные эксперименты.

Наш эволюционный подход к оптимизации демонстрирует масштабируемость во время тестирования, обнаруживая лучшие ускорения с большим количеством попыток.

Наш эволюционный подход к оптимизации демонстрирует масштабируемость во время тестирования, обнаруживая лучшие ускорения с большим количеством попыток.

Каждый такой «сервер статьи» включает три элемента: Tools (функции, например прогноз экспрессии генов), Resources (тексты, датасеты, код) и Prompts (шаблоны пошаговых сценариев). Вместо того чтобы вручную поднимать окружения, импортировать десятки библиотек и гадать с форматами данных, исследователь может просто задать вопрос и сразу получить результат.

На рисунке показан конвейер и результаты настройки запросов для верификатора на основе больших языковых моделей (LLM). Слева представлен обзор рабочего процесса. Набор данных с предложениями ядер используется для итеративного улучшения способности LLM-верификатора обнаруживать ошибки. Справа вверху показаны результаты точности по поколениям для специализированных верификаторов, нацеленных на разные типы ошибок CUDA: ошибки компиляции, памяти и численные ошибки.  Внизу справа демонстрируется, что настроенные запросы  обобщаются на различные нижестоящие модели верификаторов.

На рисунке показан конвейер и результаты настройки запросов для верификатора на основе больших языковых моделей (LLM). Слева представлен обзор рабочего процесса. Набор данных с предложениями ядер используется для итеративного улучшения способности LLM-верификатора обнаруживать ошибки. Справа вверху показаны результаты точности по поколениям для специализированных верификаторов, нацеленных на разные типы ошибок CUDA: ошибки компиляции, памяти и численные ошибки. Внизу справа демонстрируется, что настроенные запросы обобщаются на различные нижестоящие модели верификаторов.

Фактически Paper2Agent открывает путь к новому формату научной коммуникации: статьи перестают быть статичными и становятся рабочими инструментами. Это может ускорить воспроизводимость исследований, облегчить доступ к передовым методам и сделать науку гораздо более открытой.

GitHub-репозиторий проекта уже доступен!


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Подробнее

Автор: cognitronn

Источник

Rambler's Top100