
Рекурсивное самосовершенствование — или RSI, если вам нравятся аббревиатуры — это ИИ-система, способная улучшать себя итеративно: она предлагает изменения, тестирует их, оценивает, сработало ли, и сохраняет то, что реально повышает качество, формируя новую версию себя. Для нетехнического читателя идея укладывается в одну фразу: машина, которая не просто решает задачи, а учится решать их лучше.
Для экспертного читателя полезное определение требует куда большей точности: недостаточно, чтобы модель пользовалась инструментами или писала код. Должен существовать эндогенный, измеримый и относительно автономный цикл оптимизации, в котором система вносит вклад в улучшение собственных компонентов — своей обвязки, а то и архитектуры или процесса обучения. Именно здесь проходит граница между кричащим заголовком и по-настоящему интересным явлением.
Почему этот спор — не пустой звук
И именно поэтому нынешняя дискуссия так важна. Игнасио де Грегорио задаётся вопросом: не слишком ли хороша идея самовосстанавливающегося ИИ, чтобы быть правдой? RSI стало одной из главных одержимостей момента — потому что обещает использовать ИИ для улучшения ИИ. Но ещё и потому, что за этим обещанием может скрываться нечто куда менее комфортное: определённое замедление прогресса базовых моделей и сдвиг инноваций вверх, в надстройку — агенты, инструменты, экспериментальные петли. Нюансы здесь решают всё. Сказать «ИИ улучшает сам себя» — и сказать, чуть строже, что «ИИ помогает оптимизировать социотехническую систему, которая его окружает» — это совершенно разные утверждения.
Не фантазия, а репозиторий на GitHub
В этом смысле самый красноречивый пример прямо сейчас — не футуристическое обещание, а репозиторий на GitHub. В проекте autoresearch Андрей Карпатый предлагает нарочито аскетичную схему: дайте агенту маленькую реальную среду для обучения модели, позвольте ему менять код, запускать короткие эксперименты, замерять, улучшилась ли метрика, — и повторять этот цикл часами. Никакой магии. И именно поэтому это так тревожно.
Важность autoresearch — не в создании сверхинтеллекта. А в том, что он демонстрирует: часть традиционно человеческой итеративной исследовательской работы уже можно упаковать в автоматический цикл с операционными критериями — протестируй, измерь, сохрани или выброси. Вот такого рода прорывы меняют индустрии. Потому что заменяют штучный ремесленный талант воспроизводимым процессом.
Интервью с Карпатым — «Конец программирования: Андрей Карпатый об агентах, autoresearch и петлевой эре ИИ» — важно не столько риторической провокацией, сколько концептуальной рамкой. Мы входим в эру петель, где ценность определяется не статичной моделью, а системами, которые наблюдают за результатами, совершают действия, корректируют траекторию и пробуют снова. Разработчики, которых я знаю много лет, говорят мне, что «уже несколько месяцев работают почти на 90% на естественном языке». Вот этот переход — от ассистента-по-запросу к агенту, который итерирует долгими периодами, — и есть настоящая новость.
Мы имеем дело не с ИИ, который «думает» как человек. А с инфраструктурой, которая начинает эксплуатировать нечто совершенно иное и очень мощное: вычислительное терпение.
Давайте без хайпа. Хотя бы попробуем
Стоит остерегаться раздувания ожиданий. Техническая литература уже давно предупреждает: многие из этих подходов не являются RSI как таковым. Статья 2023 года Self-Taught Optimizer (STOP) обсуждала рекурсивно самосовершенствующуюся генерацию кода, но чётко оговаривала: базовая модель не менялась. Улучшалась программа, которая организовывала вызовы к модели и оценивала результаты. Иными словами, система может демонстрировать самоусиливающееся поведение, не переписывая свои веса, не перепроектируя железо и не становясь тем интеллектуальным взрывом, который И. Дж. Гуд популяризировал десятилетия назад и который породил гипотезу Терминатора.
Но и отмахиваться от этого как от «неполноценного» — ошибка. История технологий полна революций, которые начинались частично.
Почему это важно: не философия, а экономика
Причина, по которой всё это имеет такое значение, — не философская, а сугубо экономическая. Когда улучшение зависит от дефицитного человеческого таланта, оно движется со скоростью календаря, бюджета и организационного трения. Когда улучшение можно вставить в автоматический цикл — оно движется со скоростью вычислений и качества метрики. Вот тогда всё и меняется.
METR показал, что длина задач, которые агенты способны выполнять автономно с 50%-ной надёжностью, удваивается примерно каждые семь месяцев в последние годы. Это не значит, что завтра у нас появятся полностью автономные лаборатории. Но это значит, что граница между инструментом и частичным заменителем сдвигается гораздо быстрее, чем готовы признать наши институты, наши университеты и очень многие компании.
Более того, мы уже видим, как эта автономия разворачивается на практике. Anthropic отмечает, что агенты уже используются в рискованных областях — пока не в массовом масштабе — и что программная инженерия составляет почти половину всей активности, наблюдаемой через их API.
Кстати, о доступе к API. Одна из неочевидных проблем экспериментов с агентными петлями — инфраструктурная: вам нужен стабильный доступ к нескольким моделям одновременно, возможность сравнивать результаты и переключаться на лету. Сервисы вроде BotHub решают именно эту задачу — единый API ко всем ключевым моделям, от GPT-5.4 до Claude и Gemini. Для тех, кто строит собственные исследовательские циклы, это уже не вопрос удобства, а базовая инфраструктура.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
С другой стороны, PaperBench от OpenAI показывает нечто столь же показательное, но в отрицательном ключе: даже лучшие протестированные агенты всё ещё далеки от воспроизведения передовых исследований на уровне экспертных докторантов — но уже способны автоматизировать нетривиальную долю процесса.
Вот именно эта комбинация — тот сигнал, к которому стоит отнестись серьёзно. Они ещё не заменяют блестящего исследователя. Но уже могут радикально сжать рутинную, разведочную, первоитерационную работу, на которой держится повседневная наука.
Хрупкость, о которой все забывают
Однако во всём этом разговоре упускают из виду одну вещь — хрупкость. Система самосовершенствования ровно настолько хороша, насколько хороша её функция оценки и среда, в которой она учится. Если критерии дрянные, система будет оптимизировать мусор с восхитительной эффективностью. А если модели всё чаще обучаются на данных, сгенерированных другими моделями, — мы рискуем деградировать именно тот исходный материал, который питает эти циклы.
Работа, опубликованная в Nature, о коллапсе моделей — серьёзное предупреждение: неразборчивое обучение на контенте, сгенерированном моделями, может привести к необратимым дефектам и размыть хвосты исходного распределения. Говоря проще: самосовершенствование не происходит в вакууме. Оно может точно так же превратиться в самозаражение.
Настоящий переломный момент
Реальная важность RSI — не в старой фантазии об ИИ, который однажды просыпается и вырывается из-под контроля. Она — в чём-то куда более прозаическом и потому куда более правдоподобном: в системах, которые автоматизируют всё возрастающую долю процесса изобретения, тестирования и оптимизации. Для трансформации экономики знаний не нужен голливудский сценарий. Достаточно, чтобы достаточная часть итеративной, скучной, экспериментальной и верифицируемой работы перестала нуждаться в людях. И именно это мы уже начинаем наблюдать.
Вопрос не в том, реальны эти подходы или это хайп — если воспользоваться дилеммой из интересной статьи Игнасио. Вопрос куда неудобнее: что произойдёт, когда улучшение систем перестанет быть спорадическим, дорогим и человеческим актом — и станет непрерывным, автоматизированным и масштабируемым процессом?
Моё ощущение — именно это и станет настоящим переломным моментом. Не потому, что машина вдруг обрела сознание. А потому, что она начала делать то, что мы всегда оставляли за нашими R&D-отделами: выдвигать гипотезы, проверять их, измерять результаты и учиться на них — не дожидаясь утра понедельника.
Автор: cognitronn


