Представлена языковая модель с линейной сложностью вычислений и контекстом до 12 млн токенов
Кратко: стартап Subquadratic представил SubQ 1M-Preview — первую языковую модель с линейной сложностью вычислений относительно длины контекста. Заявлены контекст до 12 млн токенов, скорость в 52 раза выше FlashAttention и радикальное снижение стоимости. Независимых тестов пока нет (хотя стартап заявляет о сторонней верификации своих бенчмарков), доступ закрыт. Техническое сообщество реагирует сдержанно: пока это амбициозный пресс-релиз, а не готовый инструмент.
Больше контекста — хуже результат
почему AI-агенты деградируют на длинных сессиях и при чём тут CoTПосле статьи про Cursor и сжатие контекста я получил много комментариев. В коментах спорят: виноват компактинг? Или attention dilution? Или модель просто ослушалась? Или проблема вообще не в контексте, а в alignment?Спор хороший, но он показывает фундаментальную проблему: у инженеров нет общей картины того, как LLM работают с контекстом. Мы видим симптомы (агент удалил базу, модель галлюцинирует, точность падает на длинной сессии), но не понимаем механизмы.Попробуем собрать эту картинкуDisclaimer
Практическое руководство по инжинирингу контекста для AI-ассистентов
Каждый раз, когда вы начинаете новую сессию чата с AI-ассистентом для программирования (будь то Cursor, Claude Code, Windsurf или Cortex Code), вы по сути начинаете с нуля.Ассистент не знает, что, например, ваша команда использует Streamlit для создания веб-приложений. Он не знает, что вы предпочитаете иконки Material вместо эмодзи. И он не в курсе того конфликта портов, из-за которого три месяца назад вы перешли с 8501 на 8505.Поэтому вам приходится повторяться. Сессию за сессией.
От написания промптов к проектированию контекста. Или один очень обширный материал по Context Engineering
Прелюдия 1Это длиннопост, после которого, я надеюсь, у вас сформируется устойчивый фундамент по работе с контекстом и современными агентными интерфейсамиПрелюдия 2Если вы считаете, что я где то ошибся или хотите уточнить детали, то можете оставлять комменты. Все прочитаю и поправлюПрелюдия 3То, что написано ниже -- достаточно тяжелый материал, если у вас нет понимания работы агентов и того, как работают LLM, то будет тяжело. Но не бесполезно)Для начинающих у меня есть отичная статья Просто и подробно о том, как работают ChatGPT и другие GPT подобные модели. С картинками.
MCP не умер: почему ИИ-агенты тонут в контексте
Год назад Model Context Protocol (MCP) казался решением всех проблем разом. Один протокол, чтобы связать ИИ-агентов с GitHub, Slack, Jira и внутренними базами данных. Никаких кастомных плагинов, только чистая стандартизация. И индустрия в это поверила: к
Alibaba выкатили Qwen3.6-Plus — новый флагман серии Qwen
Модель появилась на OpenRouter в ночь с 30 на 31 марта как бесплатный превью без анонса и пресс-релиза: один твит от исследователя Qwen с таблицей бенчмарков — и всё. За первые два дня через неё прошло 400 млн completion-токенов в ~400 тыс. запросах.Контекстное окно по умолчанию — 1 млн токенов. На Terminal-Bench 2.0 модель набрала 61.6 против 59.3 у Claude 4.5 Opus, на OmniDocBench v1.5 — 91.2 против 87.7. На SWE-bench Verified пока отстаёт: 78.8 против 80.9 у Claude.
ruGPT3XL идёт в качалку – поднимаем контекст до 8k
Это продолжение предыдущей публикации про реставрацию ruGPT3XL. Для тех кто не читал, кратенько, я конвертировал древний Megatron-LM чекпоинт в HuggingFace-формат, залил веса на HF, накатил поддержку GGUF в llama.cpp и подумал, что всё. Но нет.
ИИ научили писать исследования длиннее его памяти
Главная проблема современных ИИ-агентов для исследований — контекстное окно. Модель может переварить условные 200К токенов, а серьёзное исследование требует прошерстить сотни страниц и написать отчёт на 10К+ слов. В какой-то момент агент просто упирается в потолок и начинает терять информацию.Исследователи из Китая предложили решение, которое кажется очевидным постфактум: а давайте дадим ИИ файловую систему как внешнюю память.Как это работает
Claude Code: практический гайд по настройке, автоматизации и работе с контекстом
Команда AI for Devs подготовила перевод подробного гайда по Claude Code — от skills и хуков до MCP, субагентов и плагинов. Автор делится реальным сетапом после месяцев ежедневной работы и показывает, как выжать максимум из Claude Code, не убив контекст и производительность.Вот мой полный сетап после 10 месяцев ежедневного использования: навыки, хуки, сабагенты, MCP, плагины — и то, что действительно работает. Я активно пользуюсь Claude Code с момента экспериментального запуска в феврале и выиграл хакатон Anthropic x Forum Ventures с проектом Zenith, полностью используя Claude Code.Skills и команды
Как прокачать ИИ-агента без дообучения: Agent Skills
Claude — мощный, но реальная работа требует процедурных знаний и понимания организационного контекста. Представляем Agent Skills — новый способ создавать специализированных агентов с помощью файлов и папок.TL;DR

