Гибридный подход к контексту: как сделать LLM-агентов быстрее и дешевле
Команда AI for Devs подготовила перевод статьи о том, как AI-агенты на базе LLM тратят лишние деньги из-за разрастающегося контекста и как простое маскирование наблюдений нередко работает лучше сложного LLM-суммирования. Авторы предлагают гибридный метод, который делает агентов дешевле и надёжнее без дообучения модели.
GigaMemory на AI Journey Contest 2025: итоги
Приветствуем всех! С вами снова ML-команда RnD для B2C SberAI. Этой осенью в рамках AI Journey Contest 2025 мы представили задачу GigaMemory: global memory for LLM. Её цель — создание автономного модуля долговременной памяти для языковых моделей, способного накапливать и использовать знания о конкретном пользователе, по сути наделяя ИИ способностью «помнить» своего собеседника.Пришло время объявить результаты! Но для начала — кратко напомним детали соревнования.
Путешествие токена: что конкретно происходит внутри трансформера
Из этой статьи вы узнаете о том, как трансформеры преобразуют входные данные в контекстно-зависимые представления и, в итоге, выдают вероятности, влияющие на выбор слов, которые генерируют большие языковые модели.
ИИ стал вторым по популярности направлением в МТИ после компьютерных наук
В 2022 году Массачусетский технологический институт открыл обучение по специальности «Искусственный интеллект и принятие решений». В этом году на программу зачислили почти 330 студентов, что сделало ИИ вторым по величине направлением после компьютерных наук.
Почему токсичные эксперты больше никому не нужны — и при чём тут ИИ
ВступлениеЕсли вспомнить профессиональные чаты, форумы и тот же Stack Overflow нескольких лет назад, легко представить типичную сцену: новичок спрашивает, почему не работает скрипт, а в ответ слышит набор знакомых реплик — «читай документацию», «это очевидно», «ты вообще код видел?». И это ещё мягкая версия. Тогда информация была распределена неравномерно, документация — фрагментированной, и получение помощи зависело от настроения тех, кто был готов объяснять. Эксперт — даже токсичный — оставался ключевым источником знаний.
Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене
Новости противоречат друг другу. Один источник пишет «завод встал», второй — «встала первая линия», третий копипастит статью двухлетней давности. Когда через твой пайплайн проходят сотни таких новостей в сутки, ручная верификация перестаёт масштабироваться.Мы столкнулись с этим при построении новостного пайплайна StatCar — нишевого СМИ об автомобилях. Стандартные LLM не подходят — их знания устаревают на момент обучения. Вариант «LLM + web_search tool» рассматривали, но отказались: дороже и менее эффективно. Perplexity заточен под поиск — это его core competency.
Стартап из шести выходцев DeepMind обошел Gemini 3 на главном бенчмарке абстрактного мышления ARC-AGI-2
Команда Poetiq из Майами преодолела
«Мне стало жутко»: Писательница задала ChatGPT один вопрос и пожалела об этом
Фото: cottonbro studio, pexels

