Самосовершенствование или самозаражение? Тонкая грань, на которой стоит весь прогресс ИИ. ai.. ai. openai.. ai. openai. Блог компании BotHub.. ai. openai. Блог компании BotHub. Будущее здесь.. ai. openai. Блог компании BotHub. Будущее здесь. ИИ.. ai. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект.. ai. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение.. ai. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение.. ai. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное.. ai. openai. Блог компании BotHub. Будущее здесь. ИИ. искусственный интеллект. Машинное обучение. машинное+обучение. научно-популярное. нейросети.
Самосовершенствование или самозаражение? Тонкая грань, на которой стоит весь прогресс ИИ - 1

Рекурсивное самосовершенствование — или RSI, если вам нравятся аббревиатуры — это ИИ-система, способная улучшать себя итеративно: она предлагает изменения, тестирует их, оценивает, сработало ли, и сохраняет то, что реально повышает качество, формируя новую версию себя. Для нетехнического читателя идея укладывается в одну фразу: машина, которая не просто решает задачи, а учится решать их лучше.

Для экспертного читателя полезное определение требует куда большей точности: недостаточно, чтобы модель пользовалась инструментами или писала код. Должен существовать эндогенный, измеримый и относительно автономный цикл оптимизации, в котором система вносит вклад в улучшение собственных компонентов — своей обвязки, а то и архитектуры или процесса обучения. Именно здесь проходит граница между кричащим заголовком и по-настоящему интересным явлением.


Почему этот спор — не пустой звук

И именно поэтому нынешняя дискуссия так важна. Игнасио де Грегорио задаётся вопросом: не слишком ли хороша идея самовосстанавливающегося ИИ, чтобы быть правдой? RSI стало одной из главных одержимостей момента — потому что обещает использовать ИИ для улучшения ИИ. Но ещё и потому, что за этим обещанием может скрываться нечто куда менее комфортное: определённое замедление прогресса базовых моделей и сдвиг инноваций вверх, в надстройку — агенты, инструменты, экспериментальные петли. Нюансы здесь решают всё. Сказать «ИИ улучшает сам себя» — и сказать, чуть строже, что «ИИ помогает оптимизировать социотехническую систему, которая его окружает» — это совершенно разные утверждения.


Не фантазия, а репозиторий на GitHub

В этом смысле самый красноречивый пример прямо сейчас — не футуристическое обещание, а репозиторий на GitHub. В проекте autoresearch Андрей Карпатый предлагает нарочито аскетичную схему: дайте агенту маленькую реальную среду для обучения модели, позвольте ему менять код, запускать короткие эксперименты, замерять, улучшилась ли метрика, — и повторять этот цикл часами. Никакой магии. И именно поэтому это так тревожно.

Важность autoresearch — не в создании сверхинтеллекта. А в том, что он демонстрирует: часть традиционно человеческой итеративной исследовательской работы уже можно упаковать в автоматический цикл с операционными критериями — протестируй, измерь, сохрани или выброси. Вот такого рода прорывы меняют индустрии. Потому что заменяют штучный ремесленный талант воспроизводимым процессом.

Интервью с Карпатым — «Конец программирования: Андрей Карпатый об агентах, autoresearch и петлевой эре ИИ» — важно не столько риторической провокацией, сколько концептуальной рамкой. Мы входим в эру петель, где ценность определяется не статичной моделью, а системами, которые наблюдают за результатами, совершают действия, корректируют траекторию и пробуют снова. Разработчики, которых я знаю много лет, говорят мне, что «уже несколько месяцев работают почти на 90% на естественном языке». Вот этот переход — от ассистента-по-запросу к агенту, который итерирует долгими периодами, — и есть настоящая новость.

Мы имеем дело не с ИИ, который «думает» как человек. А с инфраструктурой, которая начинает эксплуатировать нечто совершенно иное и очень мощное: вычислительное терпение.


Давайте без хайпа. Хотя бы попробуем

Стоит остерегаться раздувания ожиданий. Техническая литература уже давно предупреждает: многие из этих подходов не являются RSI как таковым. Статья 2023 года Self-Taught Optimizer (STOP) обсуждала рекурсивно самосовершенствующуюся генерацию кода, но чётко оговаривала: базовая модель не менялась. Улучшалась программа, которая организовывала вызовы к модели и оценивала результаты. Иными словами, система может демонстрировать самоусиливающееся поведение, не переписывая свои веса, не перепроектируя железо и не становясь тем интеллектуальным взрывом, который И. Дж. Гуд популяризировал десятилетия назад и который породил гипотезу Терминатора.

Но и отмахиваться от этого как от «неполноценного» — ошибка. История технологий полна революций, которые начинались частично.


Почему это важно: не философия, а экономика

Причина, по которой всё это имеет такое значение, — не философская, а сугубо экономическая. Когда улучшение зависит от дефицитного человеческого таланта, оно движется со скоростью календаря, бюджета и организационного трения. Когда улучшение можно вставить в автоматический цикл — оно движется со скоростью вычислений и качества метрики. Вот тогда всё и меняется.

METR показал, что длина задач, которые агенты способны выполнять автономно с 50%-ной надёжностью, удваивается примерно каждые семь месяцев в последние годы. Это не значит, что завтра у нас появятся полностью автономные лаборатории. Но это значит, что граница между инструментом и частичным заменителем сдвигается гораздо быстрее, чем готовы признать наши институты, наши университеты и очень многие компании.

Более того, мы уже видим, как эта автономия разворачивается на практике. Anthropic отмечает, что агенты уже используются в рискованных областях — пока не в массовом масштабе — и что программная инженерия составляет почти половину всей активности, наблюдаемой через их API.


Кстати, о доступе к API. Одна из неочевидных проблем экспериментов с агентными петлями — инфраструктурная: вам нужен стабильный доступ к нескольким моделям одновременно, возможность сравнивать результаты и переключаться на лету. Сервисы вроде BotHub решают именно эту задачу — единый API ко всем ключевым моделям, от GPT-5.4 до Claude и Gemini. Для тех, кто строит собственные исследовательские циклы, это уже не вопрос удобства, а базовая инфраструктура.

Самосовершенствование или самозаражение? Тонкая грань, на которой стоит весь прогресс ИИ - 2

Для доступа не требуется VPN, можно использовать российскую карту.

По ссылке вы можете получить 300 000 бесплатных токенов  для первых задач и приступить к работе с нейросетями прямо сейчас!


С другой стороны, PaperBench от OpenAI показывает нечто столь же показательное, но в отрицательном ключе: даже лучшие протестированные агенты всё ещё далеки от воспроизведения передовых исследований на уровне экспертных докторантов — но уже способны автоматизировать нетривиальную долю процесса.

Вот именно эта комбинация — тот сигнал, к которому стоит отнестись серьёзно. Они ещё не заменяют блестящего исследователя. Но уже могут радикально сжать рутинную, разведочную, первоитерационную работу, на которой держится повседневная наука.


Хрупкость, о которой все забывают

Однако во всём этом разговоре упускают из виду одну вещь — хрупкость. Система самосовершенствования ровно настолько хороша, насколько хороша её функция оценки и среда, в которой она учится. Если критерии дрянные, система будет оптимизировать мусор с восхитительной эффективностью. А если модели всё чаще обучаются на данных, сгенерированных другими моделями, — мы рискуем деградировать именно тот исходный материал, который питает эти циклы.

Работа, опубликованная в Nature, о коллапсе моделей — серьёзное предупреждение: неразборчивое обучение на контенте, сгенерированном моделями, может привести к необратимым дефектам и размыть хвосты исходного распределения. Говоря проще: самосовершенствование не происходит в вакууме. Оно может точно так же превратиться в самозаражение.


Настоящий переломный момент

Реальная важность RSI — не в старой фантазии об ИИ, который однажды просыпается и вырывается из-под контроля. Она — в чём-то куда более прозаическом и потому куда более правдоподобном: в системах, которые автоматизируют всё возрастающую долю процесса изобретения, тестирования и оптимизации. Для трансформации экономики знаний не нужен голливудский сценарий. Достаточно, чтобы достаточная часть итеративной, скучной, экспериментальной и верифицируемой работы перестала нуждаться в людях. И именно это мы уже начинаем наблюдать.

Вопрос не в том, реальны эти подходы или это хайп — если воспользоваться дилеммой из интересной статьи Игнасио. Вопрос куда неудобнее: что произойдёт, когда улучшение систем перестанет быть спорадическим, дорогим и человеческим актом — и станет непрерывным, автоматизированным и масштабируемым процессом?

Моё ощущение — именно это и станет настоящим переломным моментом. Не потому, что машина вдруг обрела сознание. А потому, что она начала делать то, что мы всегда оставляли за нашими R&D-отделами: выдвигать гипотезы, проверять их, измерять результаты и учиться на них — не дожидаясь утра понедельника.


Автор: cognitronn

Источник

Rambler's Top100