ИИ научили писать исследования длиннее его памяти. anthropic.. anthropic. deep research.. anthropic. deep research. FS-Researcher.. anthropic. deep research. FS-Researcher. llm.. anthropic. deep research. FS-Researcher. llm. openai.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы. Будущее здесь.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы. Будущее здесь. искусственный интеллект.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы. Будущее здесь. искусственный интеллект. исследования.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы. Будущее здесь. искусственный интеллект. исследования. контекстное окно.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы. Будущее здесь. искусственный интеллект. исследования. контекстное окно. Машинное обучение.. anthropic. deep research. FS-Researcher. llm. openai. агенты ии. Алгоритмы. Будущее здесь. искусственный интеллект. исследования. контекстное окно. Машинное обучение. Читальный зал.

Главная проблема современных ИИ-агентов для исследований — контекстное окно. Модель может переварить условные 200К токенов, а серьёзное исследование требует прошерстить сотни страниц и написать отчёт на 10К+ слов. В какой-то момент агент просто упирается в потолок и начинает терять информацию.

Исследователи из Китая предложили решение, которое кажется очевидным постфактум: а давайте дадим ИИ файловую систему как внешнюю память.

Как это работает

Два агента делят работу. Первый — Context Builder — работает как библиотекарь: шерстит интернет, читает источники, пишет структурированные заметки и складывает всё в иерархическую базу знаний. Папочки, файлики, цитаты — всё как у людей. И эта база может расти бесконечно, далеко за пределы контекстного окна.

Второй агент — Report Writer — берёт эту базу и пишет отчёт по секциям, подгружая нужную информацию по запросу. Не пытается удержать всё в голове, а работает как нормальный исследователь с архивом.

Почему это важно

Авторы показали красивую корреляцию: чем больше вычислений тратишь на первом этапе (сбор информации), тем лучше итоговый отчёт. Это называется test-time scaling — возможность улучшать результат, просто дав агенту больше времени подумать.

На бенчмарках FS-Researcher обошёл и OpenAI Deep Research, и Gemini, и Claude Research. Причём прирост не только от мощной модели — даже на одинаковом GPT-5 их архитектура даёт +2 пункта к качеству.

Мысль на подумать

Забавно, что решение “дай ИИ файловую систему” пришло из мира кодинг-агентов вроде Claude Code. Там это работает давно. А теперь выясняется, что для любых сложных задач внешняя память — must have.

Возможно, будущие агенты будут не столько “умнее”, сколько лучше организованы. Как человек с хорошей системой заметок обходит гения с кашей в голове.


Ссылка на оригинал свежей статьи в токены на ветер — иногда пишу про такое, а иногда о том, как LLM думают, или просто притворяются.

Автор: ScriptShaper

Источник

Rambler's Top100