Машинное обучение. - страница 14

Гибридный подход к контексту: как сделать LLM-агентов быстрее и дешевле

Команда AI for Devs подготовила перевод статьи о том, как AI-агенты на базе LLM тратят лишние деньги из-за разрастающегося контекста и как простое маскирование наблюдений нередко работает лучше сложного LLM-суммирования. Авторы предлагают гибридный метод, который делает агентов дешевле и надёжнее без дообучения модели.

продолжить чтение

GigaMemory на AI Journey Contest 2025: итоги

Приветствуем всех! С вами снова ML-команда RnD для B2C SberAI. Этой осенью в рамках AI Journey Contest 2025 мы представили задачу GigaMemory: global memory for LLM. Её цель — создание автономного модуля долговременной памяти для языковых моделей, способного накапливать и использовать знания о конкретном пользователе, по сути наделяя ИИ способностью «помнить» своего собеседника.Пришло время объявить результаты! Но для начала — кратко напомним детали соревнования.

продолжить чтение

Путешествие токена: что конкретно происходит внутри трансформера

Из этой статьи вы узнаете о том, как трансформеры преобразуют входные данные в контекстно-зависимые представления и, в итоге, выдают вероятности, влияющие на выбор слов, которые генерируют большие языковые модели.

продолжить чтение

Агенты Купер, Смит или Джеймс Бонд: какие виды ИИ-агентов бывают и какой подходит тебе

продолжить чтение

ИИ стал вторым по популярности направлением в МТИ после компьютерных наук

В 2022 году Массачусетский технологический институт открыл обучение по специальности «Искусственный интеллект и принятие решений». В этом году на программу зачислили почти 330 студентов, что сделало ИИ вторым по величине направлением после компьютерных наук.

продолжить чтение

Почему токсичные эксперты больше никому не нужны — и при чём тут ИИ

ВступлениеЕсли вспомнить профессиональные чаты, форумы и тот же Stack Overflow нескольких лет назад, легко представить типичную сцену: новичок спрашивает, почему не работает скрипт, а в ответ слышит набор знакомых реплик — «читай документацию», «это очевидно», «ты вообще код видел?». И это ещё мягкая версия. Тогда информация была распределена неравномерно, документация — фрагментированной, и получение помощи зависело от настроения тех, кто был готов объяснять. Эксперт — даже токсичный — оставался ключевым источником знаний.

продолжить чтение

Мы заглянули в «мозг» нейросети и поняли, почему она не способна предсказывать будущее

продолжить чтение

Фактчекинг за $0.09: GPT-5-mini + Perplexity sonar-pro в продакшене

Новости противоречат друг другу. Один источник пишет «завод встал», второй — «встала первая линия», третий копипастит статью двухлетней давности. Когда через твой пайплайн проходят сотни таких новостей в сутки, ручная верификация перестаёт масштабироваться.Мы столкнулись с этим при построении новостного пайплайна StatCar — нишевого СМИ об автомобилях. Стандартные LLM не подходят — их знания устаревают на момент обучения. Вариант «LLM + web_search tool» рассматривали, но отказались: дороже и менее эффективно. Perplexity заточен под поиск — это его core competency.

продолжить чтение

Стартап из шести выходцев DeepMind обошел Gemini 3 на главном бенчмарке абстрактного мышления ARC-AGI-2

Команда Poetiq из Майами преодолела

продолжить чтение

«Мне стало жутко»: Писательница задала ChatGPT один вопрос и пожалела об этом

Фото: cottonbro studio, pexels

продолжить чтение

Rambler's Top100