Ждёт ли OpenAI спасения от государства?
В последние недели на рынках усилилась тревога по поводу устойчивости бума искусственного интеллекта. Отчасти её подогрела та мысль, которую допустила
GigaMemory на AI Journey Contest 2025: итоги
Приветствуем всех! С вами снова ML-команда RnD для B2C SberAI. Этой осенью в рамках AI Journey Contest 2025 мы представили задачу GigaMemory: global memory for LLM. Её цель — создание автономного модуля долговременной памяти для языковых моделей, способного накапливать и использовать знания о конкретном пользователе, по сути наделяя ИИ способностью «помнить» своего собеседника.Пришло время объявить результаты! Но для начала — кратко напомним детали соревнования.
Технический обзор моделей DeepSeek от V3 до V3.2
Три самые постоянные вещи в мире — оливье с мандаринами на Новый год, желание начать новую жизнь с понедельника и то, что если выходит статья Себастьяна Рашки, то я делаю ее качественный перевод на русский. Эта технически глубокая статья известного исследователя LLM о том, как эволюционировали флагманские модели с открытыми весами от DeepSeek и обзор DeepSeek V3.2.
OpenAI обучила модели «признаваться» в плохом поведении
OpenAI тестирует ещё один способ раскрыть сложные процессы, происходящие в больших языковых моделях. Исследователи компании экспериментируют с манипуляциями LLM, чтобы те объясняли, как выполнили задачу, и признавались в нежелательном поведении.
«Закон уплотнения» LLM: плотность способностей удваивается каждые 3,5 месяца
TL;DRПредлагается «закон уплотнения» для больших языковых моделей: максимальная плотность способностей удваивается примерно каждые 3,5 месяца. То есть всё больше качества удаётся выжать из каждого параметра модели.Вводится метрика плотности способностей: считается, сколько параметров потребовалось бы референсной модели, чтобы показать такое же качество, и это число сравнивается с реальным количеством параметров. Так видно, какие модели обучены «экономно», а какие — расточительно.
Лучшие нейросети для вайбкодинга на 1С 6 (финал)
В этой части добавил Claude Opus 4.5 и GPT 5.1-Codex-MaxПредыдущая часть: https://habr.com/ru/articles/967828/Для тех, кто не любит читать, результат сразу тут:И ссылка на рейтинг, который теперь переехал вот сюда:
Научный стриминговый сервис Curiosity Stream занялся помощью в лицензировании ИИ
Ориентированный на науку стриминговый сервис Curiosity Stream занялся лицензированием интеллектуальной собственности компаний из сферы искусственного интеллекта. Он предлагает оригинальное программное обеспечение Curiosity Stream для обучения больших языковых моделей.

