Похоже, GPT-5.3 уже на подходе — и это может быть один из самых серьёзных апдейтов OpenAI за долгое время
По информации из нескольких источников, новая версия модели проходит под кодовым названием Garlic. Если верить инсайдам, GPT-5.2 был лишь промежуточным чекпоинтом — своего рода «разбавленной версией» того, чем станет 5.3.Главная цифра — 2 000 токенов в секунду. Именно такую скорость сможет выдавать арендный кодинг на базе GPT-5.3 благодаря партнёрству OpenAI с Cerebras.
Потенциал оптогенетики в применении на людях. Возможности, риски и как именно можно использовать технологию?
До недавнего времени оптогенетика использовалась преимущественно в экспериментах. Отследить активность в конкретной части мозга, проследить связь между стимуляцией участка мозга и поведением субъекта. Главное её преимущество: точечный контроль отдельных цепей нейронных связей. Но насколько реально перепрошить геном человеческих нейронов, а потом стимулировать их светом, через вживленное или внешнее оптоволокно? Вот этому и посвящен новый материал!
Что нас ждёт с AI в 2026 году — выжимка из 50+ отчётов
Последний месяц я читал всё подряд: отчёты Goldman Sachs, Gartner, McKinsey, интервью Дарио Амодеи и Сэма Альтмана, анонсы с CES 2026. Пытался понять, что реально изменится в этом году и что из этого следует для меня и моих клиентов.
Собираем LLM-агента на Python
Команда Python for Devs подготовила перевод статьи о том, как с помощью middleware в LangChain 1.0 собирать LLM-агентов, готовых к реальному продакшену. В материале разбираются практические паттерны: управление контекстом, защита PII, human-in-the-loop, планирование задач и интеллектуальный выбор инструментов — всё то, что отличает экспериментального агента от надёжного рабочего решения.Введение Хотели ли вы когда-нибудь расширить своего LLM-агента дополнительными возможностями, например:Суммировать сообщения, чтобы укладываться в контекстное окно;
В «Яндекс Картах» появилась возможность делиться геопозицией с близкими
В сервисе «Яндекс Карты» появилась
Рекурсивные языковые модели (RLM) – парадигма 2026 года
Команда AI for Devs подготовила перевод большого исследовательского материала о рекурсивных языковых моделях (RLM). Авторы разбирают, почему простое увеличение контекстного окна больше не решает проблему долгоживущих агентов, и показывают альтернативу: обучение моделей активному управлению собственным контекстом через context folding и под-LLM. Статья основана на обширных экспериментах и даёт практический взгляд на то, каким может быть следующий шаг в развитии LLM-агентов.Как мы планируем управлять чрезвычайно длинными контекстами
Как реальность разрушает миф об «ИИ-революции»?
Увольнения из-за ИИ - полная чушь Фото: Glitch Lab App, Unsplash

