контекстное окно.

ИИ научили писать исследования длиннее его памяти

Главная проблема современных ИИ-агентов для исследований — контекстное окно. Модель может переварить условные 200К токенов, а серьёзное исследование требует прошерстить сотни страниц и написать отчёт на 10К+ слов. В какой-то момент агент просто упирается в потолок и начинает терять информацию.Исследователи из Китая предложили решение, которое кажется очевидным постфактум: а давайте дадим ИИ файловую систему как внешнюю память.Как это работает

продолжить чтение

Claude Code: практический гайд по настройке, автоматизации и работе с контекстом

Команда AI for Devs подготовила перевод подробного гайда по Claude Code — от skills и хуков до MCP, субагентов и плагинов. Автор делится реальным сетапом после месяцев ежедневной работы и показывает, как выжать максимум из Claude Code, не убив контекст и производительность.Вот мой полный сетап после 10 месяцев ежедневного использования: навыки, хуки, сабагенты, MCP, плагины — и то, что действительно работает. Я активно пользуюсь Claude Code с момента экспериментального запуска в феврале и выиграл хакатон Anthropic x Forum Ventures с проектом Zenith, полностью используя Claude Code.Skills и команды

продолжить чтение

Как прокачать ИИ-агента без дообучения: Agent Skills

Claude — мощный, но реальная работа требует процедурных знаний и понимания организационного контекста. Представляем Agent Skills — новый способ создавать специализированных агентов с помощью файлов и папок.TL;DR

продолжить чтение

Почему «больше токенов ≠ лучше» или Как научить LLM работать с длинным контекстом

Всем привет! Меня зовут Наталья Бруй, я промпт-инженер в MWS AI. Вместе с моей коллегой  Анастасией Тищенковой мы решили ответить на вопрос, который мучает нашего пиарщика

продолжить чтение

19-летний стартапер разработает системы памяти на основе ИИ

19-летний основатель стартапа Supermemory Дхравья Шах занимается разработкой систем памяти на основе искусственного интеллекта. Он получил поддержку от руководителей Google и других ИИ-компаний. 

продолжить чтение

Ограничение контекстного окна GPT-5 и его эффективное использование в Bothub

Доброго времени суток, «Хабр»!В сегодняшней статье мы разберемся в ограничениях контекстного окна GPT-5, рассмотрим его применение относительно Bothub и ответим на вопрос: как повысить эффективность?Присаживайтесь поудобнее, я начинаю свое повествование.

продолжить чтение

Anthropic увеличивает контекстное окно Claude Sonnet 4 до 1 000 000 токенов

Компания Anthropic сделала серьёзный шаг вперёд в развитии своих ИИ‑технологий: теперь модель Claude Sonnet 4 может обрабатывать запросы объёмом до

продолжить чтение

Анатомия памяти LLM: Почему будущее не за промптами, а за Инженерией Контекста

При работе с API больших языковых моделей я привык к определенной предсказуемости. Для моих исследовательских задач, экспериментов с кодом и повседневной рутины дневные расходы на API обычно колеблются в предсказуемом и комфортном диапазоне 3-4 евро. Это стало своего рода фоновым шумом, константой, на которую я перестал обращать внимание.Но в конце июля я увидел в биллинге Google API картину, которая заставила меня остановиться и задуматься. Вместо привычной цифры там красовалась аномалия — €51.

продолжить чтение

Минификация кода для повышения эффективности LLM: влияние на лингвистику, генерацию и анализ программ

ВВЕДЕНИЕБольшие языковые модели (LLM) становятся неотъемлемой частью инструментов генерации, анализа и автоматизации программирования. Их возможности позволяют автоматизировать разработку, искать ошибки, генерировать тесты, осуществлять перевод между языками программирования. Однако одно из ключевых ограничений – контекстное окно, то есть максимально возможная длина входных данных. С ростом объема современных программ эффективность работы LLM с длинным кодом становится всё более актуальной задачей, особенно учитывая вычислительные и финансовые издержки обработки длинных последовательностей.

продолжить чтение

Контекстное окно в 200 тыс. токенов Claude 2.1 подвергли проверке

Anthropic Компания Anthropic представила Claude 2.1, следующую версию своей языковой модели. В 2.1 заявлены разнообразные улучшения точности и 50-процентное сокращение частоты галлюцинаций. Новая модель удваивает размер контекстного окна со 100 тыс. токенов до 200 тыс. Грег Камрадт протестировал эффективность памяти Claude 2.1 в зависимости от длины контекста и выдал несколько рекомендаций.

продолжить чтение

Rambler's Top100