Квантовые физики уменьшили и «освободили от цензуры» DeepSeek R1
Им удалось сократить размер ИИ-модели рассуждений более чем наполовину — и они утверждают, что теперь она может отвечать на политически чувствительные вопросы, которые раньше были под запретом в китайских ИИ-системах.TL;DR:Multiverse Computing сжала DeepSeek R1 с помощью квантово-вдохновлённых тензорных сетей: модель стала на 55% компактнее при почти той же точности. По пути они «сняли» китайскую цензуру: модифицированная версия отвечает на табуированные для китайских LLM вопросы примерно как западные модели.
Artificial Analysis обновили свой Intelligence Index
В новых тестах неожиданно выстрелил Gemini 3 Pro Preview. По половине бенчмарков у модели не просто небольшой прирост, а заметный скачок вперёд.Фактические знания и галлюцинацииGemini 3 Pro Preview занимает 1-е место в 5 из 10 тестов Artificial Analysis Intelligence Index:GPQA Diamond, MMLU‑Pro, HLE, LiveCodeBench и SciCode.Самый показательный результат — 37% в Humanity's Last Exam (сложный экзамен «на последнюю попытку человечества»). Это на 10+ п.п. выше предыдущего лучшего результата — для такого класса задач это большой отрыв, а не статистический шум.»Отдельно модель лидирует в AA‑Omniscience, новом комплексном бенчмарке знаний и галлюцинаций:
ИИ-агенты: хайп или новый стандарт рынка. Обзор исследования от МТС
Новый технологический тренд — всегда вызов для бизнеса. Но что с ним делать — немедленно вкладываться и внедрять или подождать и присмотреться?
Не только трансформеры: за пределами стандартных архитектур LLM
Привет! Это перевод очень крутой и захватывающей статьи, в которой автор рассматривает альтернативные архитектуры LLM: гибриды с линейным вниманием, диффузионные LLM, модели мира и малые рекурсивные трансформеры. Дальше слово автору:Гибриды с линейным вниманием, текстовая диффузия, модели мира на основе кода и малые рекурсивные трансформеры.От DeepSeek R1 до MiniMax-M2, самые большие и способные LLM с открытыми весами сегодня остаются авторегрессивными (autoregressive) трансформерами декодерного типа, которые построены на различных вариациях оригинального механизма многоголового внимания (multi-head attention).
Хайп vs реальность: что tech-медиа пишут об ИИ и кто реально лучший в 2025?
За последний месяц я детально отслеживал каждую статью об искусственном интеллекте в ведущих западных tech-изданиях. 200 статей из TechCrunch, VentureBeat и MIT Technology Review за 26 дней — в среднем почти 8 новостей об ИИ каждый день. Цель эксперимента была проста: понять, совпадает ли то, о чём громче всего кричат медиа, с реальными возможностями ИИ-моделей.Спойлер: не совпадает. И разрыв между медийным шумом и реальностью оказался весьма значительным.Методология исследования Я мониторил три ключевых источника tech-новостей:TechCrunch — крупнейшее издание о стартапах и технологиях VentureBeat
AIJ Deep Dive: первый очный трек по GenAI для дата-сайентистов и разработчиков на AI Journey
Впервые в рамках AI Journey — крупнейшей конференции по искусственному интеллекту в России — состоится специальный очный трек для разработчиков, исследователей и дата-сайентистов, работающих с генеративным ИИ — AIJ Deep Dive. Мероприятие пройдёт 20–21 ноября в московской штаб-квартире Сбера (Кутузовский проспект, 32, к. 1) и соберёт разработчиков и исследователей в области генеративного искусственного интеллекта (GenAI). Участников ждут доклады от топовых экспертов индустрии, RnD-выставка, постерная сессия и масштабный нетворкинг.
Мир после трансформеров: закат и новый рассвет больших языковых моделей
Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.
Как я экономлю на инференсе LLM-модели в облаке и не теряю в качестве
Если вы читаете этот текст, скорее всего, вы уже пробовали запустить LLM самостоятельно и, вполне вероятно, столкнулись с одной из типичных проблем:«Заказал GPU, загрузил модель, а она не влезла, хотя по расчетам памяти должно было хватить».«Платим за A100, а реально используем лишь 30% ее мощности».Привет, на связи Павел, ML-инженер в Cloud.ru. Я прошел через эти проблемы сам, поэтому не понаслышке знаю, как это может раздражать.

