Гибридный подход к контексту: как сделать LLM-агентов быстрее и дешевле
Команда AI for Devs подготовила перевод статьи о том, как AI-агенты на базе LLM тратят лишние деньги из-за разрастающегося контекста и как простое маскирование наблюдений нередко работает лучше сложного LLM-суммирования. Авторы предлагают гибридный метод, который делает агентов дешевле и надёжнее без дообучения модели.
Сигналы тревоги: как заметить выгорание раньше, чем сотрудники начнут дымиться
С выгоранием сталкивались многие, и зачастую даже отпуск не спасает. В интернете много информации о выгорании конкретного человека, но почти никакой о том, как выгорают команды и что с этим делать.
GigaMemory на AI Journey Contest 2025: итоги
Приветствуем всех! С вами снова ML-команда RnD для B2C SberAI. Этой осенью в рамках AI Journey Contest 2025 мы представили задачу GigaMemory: global memory for LLM. Её цель — создание автономного модуля долговременной памяти для языковых моделей, способного накапливать и использовать знания о конкретном пользователе, по сути наделяя ИИ способностью «помнить» своего собеседника.Пришло время объявить результаты! Но для начала — кратко напомним детали соревнования.
Как я готовил рекламную кампанию для РСЯ с помощью Nano Banana и Gemini 2.5
Часть 4. История о том, как я сэкономил на дизайнере и директологе, заставив ИИ генерировать нескучную рекламу для скучной ниши.Привет! На связи снова Евгений.Если вы следили за моими предыдущими статьями, то помните мой путь. Сначала я, не будучи программистом, собрал на Python и Gemini поиск по внутренней базе товаров. Потом мне стало тесно, и я прикрутил к инструменту парсер и модуль анализа цен конкурентов. Мой «комбайн» научился находить товар, сравнивать его с рынком и выдавать аналитику. Также я уже рассказывал о том, как
Путешествие токена: что конкретно происходит внутри трансформера
Из этой статьи вы узнаете о том, как трансформеры преобразуют входные данные в контекстно-зависимые представления и, в итоге, выдают вероятности, влияющие на выбор слов, которые генерируют большие языковые модели.
Один чип вместо тысяч серверов, или глобальный конкурент Nvidia
Пока все обсуждали, насколько мощнее стали новые GPU, возникла другая проблема: большие модели не помещаются туда, где их пытаются запускать. Дата-центры дорожают, пропускные сети упираются в физические пределы, а зависимость от облака становится стратегическим риском. О компании, которая предлагает альтернативную инфраструктуру для ИИ.
ИИ стал вторым по популярности направлением в МТИ после компьютерных наук
В 2022 году Массачусетский технологический институт открыл обучение по специальности «Искусственный интеллект и принятие решений». В этом году на программу зачислили почти 330 студентов, что сделало ИИ вторым по величине направлением после компьютерных наук.
