Главная проблема современных ИИ-агентов для исследований — контекстное окно. Модель может переварить условные 200К токенов, а серьёзное исследование требует прошерстить сотни страниц и написать отчёт на 10К+ слов. В какой-то момент агент просто упирается в потолок и начинает терять информацию.
Исследователи из Китая предложили решение, которое кажется очевидным постфактум: а давайте дадим ИИ файловую систему как внешнюю память.
Как это работает
Два агента делят работу. Первый — Context Builder — работает как библиотекарь: шерстит интернет, читает источники, пишет структурированные заметки и складывает всё в иерархическую базу знаний. Папочки, файлики, цитаты — всё как у людей. И эта база может расти бесконечно, далеко за пределы контекстного окна.
Второй агент — Report Writer — берёт эту базу и пишет отчёт по секциям, подгружая нужную информацию по запросу. Не пытается удержать всё в голове, а работает как нормальный исследователь с архивом.
Почему это важно
Авторы показали красивую корреляцию: чем больше вычислений тратишь на первом этапе (сбор информации), тем лучше итоговый отчёт. Это называется test-time scaling — возможность улучшать результат, просто дав агенту больше времени подумать.
На бенчмарках FS-Researcher обошёл и OpenAI Deep Research, и Gemini, и Claude Research. Причём прирост не только от мощной модели — даже на одинаковом GPT-5 их архитектура даёт +2 пункта к качеству.
Мысль на подумать
Забавно, что решение “дай ИИ файловую систему” пришло из мира кодинг-агентов вроде Claude Code. Там это работает давно. А теперь выясняется, что для любых сложных задач внешняя память — must have.
Возможно, будущие агенты будут не столько “умнее”, сколько лучше организованы. Как человек с хорошей системой заметок обходит гения с кашей в голове.
Ссылка на оригинал свежей статьи в токены на ветер — иногда пишу про такое, а иногда о том, как LLM думают, или просто притворяются.
Автор: ScriptShaper


