BrainTools - Методики для развития мозга - страница 50

Гибридный подход к контексту: как сделать LLM-агентов быстрее и дешевле

Команда AI for Devs подготовила перевод статьи о том, как AI-агенты на базе LLM тратят лишние деньги из-за разрастающегося контекста и как простое маскирование наблюдений нередко работает лучше сложного LLM-суммирования. Авторы предлагают гибридный метод, который делает агентов дешевле и надёжнее без дообучения модели.

продолжить чтение

Видеокодек AV2 готов. Почему нам важны открытые стандарты

продолжить чтение

Сигналы тревоги: как заметить выгорание раньше, чем сотрудники начнут дымиться

С выгоранием сталкивались многие, и зачастую даже отпуск не спасает. В интернете много информации о выгорании конкретного человека, но почти никакой о том, как выгорают команды и что с этим делать.

продолжить чтение

GigaMemory на AI Journey Contest 2025: итоги

Приветствуем всех! С вами снова ML-команда RnD для B2C SberAI. Этой осенью в рамках AI Journey Contest 2025 мы представили задачу GigaMemory: global memory for LLM. Её цель — создание автономного модуля долговременной памяти для языковых моделей, способного накапливать и использовать знания о конкретном пользователе, по сути наделяя ИИ способностью «помнить» своего собеседника.Пришло время объявить результаты! Но для начала — кратко напомним детали соревнования.

продолжить чтение

Как я готовил рекламную кампанию для РСЯ с помощью Nano Banana и Gemini 2.5

Часть 4. История о том, как я сэкономил на дизайнере и директологе, заставив ИИ генерировать нескучную рекламу для скучной ниши.Привет! На связи снова Евгений.Если вы следили за моими предыдущими статьями, то помните мой путь. Сначала я, не будучи программистом, собрал на Python и Gemini поиск по внутренней базе товаров. Потом мне стало тесно, и я прикрутил к инструменту парсер и модуль анализа цен конкурентов. Мой «комбайн» научился находить товар, сравнивать его с рынком и выдавать аналитику. Также я уже рассказывал о том, как

продолжить чтение

Путешествие токена: что конкретно происходит внутри трансформера

Из этой статьи вы узнаете о том, как трансформеры преобразуют входные данные в контекстно-зависимые представления и, в итоге, выдают вероятности, влияющие на выбор слов, которые генерируют большие языковые модели.

продолжить чтение

Агенты Купер, Смит или Джеймс Бонд: какие виды ИИ-агентов бывают и какой подходит тебе

продолжить чтение

Один чип вместо тысяч серверов, или глобальный конкурент Nvidia

Пока все обсуждали, насколько мощнее стали новые GPU, возникла другая проблема: большие модели не помещаются туда, где их пытаются запускать. Дата-центры дорожают, пропускные сети упираются в физические пределы, а зависимость от облака становится стратегическим риском. О компании, которая предлагает альтернативную инфраструктуру для ИИ.

продолжить чтение

Квантовый скачок: как фотоны переписывают правила игры в вычислениях

продолжить чтение

ИИ стал вторым по популярности направлением в МТИ после компьютерных наук

В 2022 году Массачусетский технологический институт открыл обучение по специальности «Искусственный интеллект и принятие решений». В этом году на программу зачислили почти 330 студентов, что сделало ИИ вторым по величине направлением после компьютерных наук.

продолжить чтение

Rambler's Top100