большие языковые модели.

Ждёт ли OpenAI спасения от государства?

В последние недели на рынках усилилась тревога по поводу устойчивости бума искусственного интеллекта. Отчасти её подогрела та мысль, которую допустила

продолжить чтение

GigaMemory на AI Journey Contest 2025: итоги

Приветствуем всех! С вами снова ML-команда RnD для B2C SberAI. Этой осенью в рамках AI Journey Contest 2025 мы представили задачу GigaMemory: global memory for LLM. Её цель — создание автономного модуля долговременной памяти для языковых моделей, способного накапливать и использовать знания о конкретном пользователе, по сути наделяя ИИ способностью «помнить» своего собеседника.Пришло время объявить результаты! Но для начала — кратко напомним детали соревнования.

продолжить чтение

Агенты Купер, Смит или Джеймс Бонд: какие виды ИИ-агентов бывают и какой подходит тебе

продолжить чтение

Логический компас для искусственного интеллекта

продолжить чтение

Технический обзор моделей DeepSeek от V3 до V3.2

Три самые постоянные вещи в мире — оливье с мандаринами на Новый год, желание начать новую жизнь с понедельника и то, что если выходит статья Себастьяна Рашки, то я делаю ее качественный перевод на русский. Эта технически глубокая статья известного исследователя LLM о том, как эволюционировали флагманские модели с открытыми весами от DeepSeek и обзор DeepSeek V3.2.

продолжить чтение

OpenAI обучила модели «признаваться» в плохом поведении

OpenAI тестирует ещё один способ раскрыть сложные процессы, происходящие в больших языковых моделях. Исследователи компании экспериментируют с манипуляциями LLM, чтобы те объясняли, как выполнили задачу, и признавались в нежелательном поведении. 

продолжить чтение

«Закон уплотнения» LLM: плотность способностей удваивается каждые 3,5 месяца

TL;DRПредлагается «закон уплотнения» для больших языковых моделей: максимальная плотность способностей удваивается примерно каждые 3,5 месяца. То есть всё больше качества удаётся выжать из каждого параметра модели.Вводится метрика плотности способностей: считается, сколько параметров потребовалось бы референсной модели, чтобы показать такое же качество, и это число сравнивается с реальным количеством параметров. Так видно, какие модели обучены «экономно», а какие — расточительно.

продолжить чтение

Лучшие нейросети для вайбкодинга на 1С 6 (финал)

В этой части добавил Claude Opus 4.5 и GPT 5.1-Codex-MaxПредыдущая часть: https://habr.com/ru/articles/967828/Для тех, кто не любит читать, результат сразу тут:И ссылка на рейтинг, который теперь переехал вот сюда:

продолжить чтение

Научный стриминговый сервис Curiosity Stream занялся помощью в лицензировании ИИ

Ориентированный на науку стриминговый сервис Curiosity Stream занялся лицензированием интеллектуальной собственности компаний из сферы искусственного интеллекта. Он предлагает оригинальное программное обеспечение Curiosity Stream для обучения больших языковых моделей.

продолжить чтение

Анализ возможности применения модели OpenThinker2-32B в автоматизированных системах прогнозируемого обслуживания

Постановка проблемы.

продолжить чтение

123456...10...13
Rambler's Top100