- BrainTools - https://www.braintools.ru -

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта [1] и технологий.
Меня зовут Вандер [2], и каждую неделю я обозреваю новости о нейросетях и ИИ.
Неделя выдалась плотной на релизы: Claude Opus 4.5 новый лидер в кодинге, открытые GigaChat 3, Kandinsky 5.0 и другие релизы от Сбера, FLUX.2 против Nano Banana Pro, параллельно обновились Cursor и Perplexity, а в США запускают мега-проект для ускорения науки.
Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
🧠 Модели и LLM
🎨 Генеративные нейросети
🔧 AI-инструменты и платформы
🧩 AI в обществе и исследованиях
Тема выпуска [20]

Anthropic выкатили Claude Opus 4.5 — и это сейчас самая сильная модель для кодинга, которая впервые в истории превысила 80% на SWE-bench Verified, обогнав Gemini 3 Pro, GPT-5.1-Codex-Max и Sonnet 4.5.
Главная фишка — высокая эффективность. Opus 4.5 тратит на 48–76% меньше токенов, а цена упала втрое — до $5/$25 за миллион токенов.
По словам разрабов, Opus 4.5 прошла их внутренний экзамен для найма лучше любого человека в истории компании.
Плюсом в Claude Code завезли сжатие контекста, чтобы не упираться в лимиты и кодить дольше.
Модель уже раскатали для платных подписчиков, в API, а так же в OpenRouter и GenSpark.
🔗 Блогпост [21]
OpenAI запустили shopping research — это адаптация Deep Research под поиск товаров.
Модель задаёт уточняющие вопросы, параллельно собирает информацию из сети и показывает результаты в реальном времени, а пользователь отмечает, что подходит, а что нет. Так ассистент быстрее понимает предпочтения и корректирует направление поиска.
Внутри работает специально дообученный GPT-5 mini, который оптимизировали под подбор товаров.
По заявлениям OpenAI, он справляется лучше, чем GPT-5 Thinking в этой задаче. Режим уже доступен на вебе и в мобильных приложениях ChatGPT.
Важное примечание. Модель может ошибаться в деталях: цены, наличие и характеристики товара лучше перепроверять на сайте продавца — в OpenAI на этом прям акцентируют.
🔗 ChatGPT [22]

Сбер выложил в опенсорс весь свой ИИ-стек. Флагман GigaChat Ultra-Preview — огромная MoE с 702B параметров и 36B активных, обученная полностью с нуля на русском датасете. Уже обходит DeepSeek V3.1 по русскому бенчмарку MERA и поддерживает контекст до 128к+ токенов, в Lightning — до 256к.
GigaChat 3 Lightning — компактная версия на 10B параметров и 1.8B активных, которую можно завести локально. По скорости она сравнима с Qwen3-1.7B, а по качеству превосходит Qwen3-4B.
В статье на Хабр команда Сбера рассказала про архитектуру, использование MTP и MLA для ускорения, дала прозрачную историю обучения [23] и объяснила, как натренировать модель, чтобы она была полезной и недушной. Плюсом есть новые chat-шаблоны, поддержка TS-функций, улучшенный tool calling и мультиъязычная поддержка — 10 языков, включая китайский, узбекский, казахский и др.
🔗 GitHub [24] 🔗 HuggingFace Ultra-Preview [25] 🔗 HuggingFace Lightning [26] 🔗 Статья на Хабре [27]

На GitHub появился Heretic — инструмент, который поможет автоматически снять цензуру с LLM.
Она гоняет примеры диалогов через API, учится на них и постепенно приучает модель, что отвечать на неудобные запросы — нормально. В итоге ИИ перестаёт блокировать запросы и выдаёт прямые ответы.
Heretic не изменяет саму LLM и не делает её умнее — он просто снимает системные фильтры.
Более подробно, как это работает: за отказ отвечать на табу-запросы отвечает одно направление в активациях модели. Heretic вычисляет это направление, сравнивая реакцию [28] модели на обычные и «опасные» промпты, а затем аккуратно вырезает этот вектор из весов слоя внимания [29] и MLP.
Дальше инструмент уменьшает количество отказов, но при этом следит, чтобы модель сохранила исходный характер и стиль ответов. Процесс автоматический и быстрый: на RTX-3090 переработка Llama-8B занимает около 45 минут
Heretic поддерживает архитектуры Llama, Qwen, Gemma, многие мультимодальные модели и даже MoE.
Разработчики подчеркивают, что инструмент предназначен для исследовательских задач, а юридические и этические последствия применения ложатся на пользователя.
🔗 arXiv [30] 🔗 Heretic GitHub [31]

OpenAI выпустили GPT-5.1-Codex-Max — новую модель для автономного кодинга и агентных задач.
Главное: модель может самостоятельно работать до 24 часов, последовательно проводя тесты, исправляя баги и доводя проект до результата без участия пользователя.
В тестах SWE-bench Verified она показала 77.9%, предыдущая 5.1-Codex — 73.7%. В линейку режимов reasoning добавился новый — xhigh, а расход токенов стал на 30% ниже.
Это первый Codex, обученный работать в Windows, включая Powershell и особенности Windows-окружения.
Ещё появилась функция compaction — модель умеет сжимать старый контент контекста и переносить его в следующее окно памяти [32], что позволяет работать с огромными объемами истории диалога.
Уже доступна в IDE и Codex CLI, в API появится позже.
Google представили Gemini 3 Pro Image, она же Nano Banana Pro — модель нового поколения на базе свежего Gemini 3 Pro. Настолько круто работает с текстом, что решит вам домашку по фотке, сохранив почерк, и это будет выглядеть максимально естественно.
Главные улучшения:
модель уверенно меняет ракурс, перспективу и композицию, а не просто дорисовывает поверх, как это было в старой банане
картинку реально можно использовать как стиль, а не как жесткий референс
поддерживает серийную генерацию: можно запросить весь сет из 5–10 кадров, модель сама строит мини-сториборд и развивает сцену шаг за шагом
Это всё ещё диффузионная система поверх текстового энкодера Gemini, но теперь модель размышляет в процессе генерации: создаёт до трёх вариантов, сравнивает их с промптом по композиции, логике [35] и качеству, и показывает пользователю лучшую версию.
Добавили встроенную цифровую вотермарку SynthID, которая фиксирует факт редактирования изображения.
Cейчас это одна из сильнейших мультимодальных систем на рынке.
🔗 Блогпост [36] 🔗 API [37] 🔗 Gemini App [38] 🔗 Cookbook [39]
Следом Black Forest Labs выкатили FLUX.2 — трансформер на 32 млрд параметров. Качество до 4К и дешевле Nano Banana Pro в пять раз.
Генерирует, точечно редактирует и комбинирует картинки, поддерживает до 10 референсов одновременно, засчёт чего персонажи получаются консистентными.
Три версии модели:
[pro] — качество уровня топ-моделей, при этом работает быстрее и дешевле;
[flex] — полный ручной контроль над процессом генерации;
[dev] — версия с открытыми весами на 32B, запускается локально на RTX 4090 (через 4-битное квантование), вес полноразмерной модели — около 70 ГБ.
Под капотом Mistral-3 24B отвечает за понимание физики сцены, композиции, света, материалов и логики объектов.
FLUX.2 уже есть в ComfyUI и Diffusers, а протестировать можно прямо через Playground — при авторизации дают 50 бесплатных генераций.
Версию klein с Apache-лицензией обещают позже.
🔗 Блогпост [40] 🔗 FLUX Playground [41] 🔗 HuggingFace [42]
Tencent представили HunyuanVideo 1.5 — лёгкий и быстрый видеогенератор с 8.3B параметров, по качеству конкурирует с более тяжёлыми закрытыми моделями.
Ключевая инновация — новый механизм SSTA (Sparse Space-Time Attention), который ускоряет генерацию 10-секундного ролика в 720p в 2 раза
Главная фишка — эффективность и скорость. Новый механизм SSTA или Sparse Space-Time Attention ускоряет генерацию 10-секундного видео в 720p почти в два раза.
Для работы достаточно 14 гигабайт VRAM. Но скорость, конечно, просядет.
Поддерживаются img2vid и txt2vid режимы в разрешении 480p и 720p и апскейл до 1080p.
Отлично справляется со сложными промптами и реалистичной физикой объектов.
Интегрируется с ComfyUI и LightX2V.
🔗 GitHub [43] 🔗 HuggingFace [44] 🔗 Официальный сайт модели [45] 🔗 Демо [45]

Ещё один релиз от Сбера, на сей раз семейство Kandinsky 5.0, опенсорс с MIT-лицензией.
Модели хорошо понимают русские промпты и культурный контекст. Пишут читабельную кириллицу, что до сих пор остаётся слабым местом многих западных моделей.
4 модельки:
Video Pro — флагман, генерит HD-видео до 10 секунд, гибкое управление движением камеры, обучена на 250 млн видео и 520 млн изображений, понимает русские и английские промпты
Video Lite — компактная версия, запускается от 12 GB VRAM, при этом обходит тяжёлую Wan-2.1-14B
Image Lite — генерация и редактирование изображений; превосходит FLUX.1 dev в Text-to-Image и сравним с FLUX.1 Kontext по Image Editing.
K-VAE 1.0 (2D/3D) — мощные визуальный автоэнкодеры, сжимают изображения и видео без потери качества. Сейчас один из лучших в опенсорсе.
🔗 GitHub [46] 🔗 HuggingFace [47] 🔗 Техрепорт [48]
Вышел обновлённый Cursor 2.1, появилась функция Find Issues — агент делает ревью кода, ищет баги и сразу подсвечивает проблемы в боковой панели.
Ещё ускорили поиск по проекту: теперь он работает на векторной базе, обходит большие репозитории за секунды. Для любителей классического grep оставили отдельный режим.
Обновился и интерфейс планирования: когда вы утверждаете план работ, Cursor начинает задавать уточнения прямо в интерактивном режиме — можно отвечать ему в процессе, не перезапуская запрос.
🔗 Changelog [49] 🔗 Cursor [50]

Сооснователь Coursera (не Cursor) Эндрю Ын запустил бесплатный инструмент PaperReview — это ИИ-рецензент для научных статей.
Идея проста: получить честный фидбек на работу до того, как её начнёт разбирать научрук или реальный рецензент.
Агент оценивает новизну, ясность и методологию, отмечает слабые места и указывает, что может не понравиться редактору или комиссии.
Самое крутое — стабильность оценок: корреляция оценки ИИ с человеком — 0.42. Для сравнения, у двух живых рецензентов она всего 0.41. То есть бот оценивает так же стабильно, как и люди.
Тулза особенно сильна на материалах по CS и ИИ, используя массив данных arXiv и реальные рецензии с ICLR-2025. Отлично подходит для студентов, аспирантов, исследователей и всех, кто хочет понять, как это увидят рецензенты, но без ожидания в несколько месяцев.
🔗 PaperReview [51]

Андрей Карпаты представил LLM Council — инструмент, который симулирует «совет нейросетей»: вы отправляете один запрос, а дальше происходит следующее:
через OpenRouter запрос уходит сразу в несколько моделей, например GPT-5.1, Gemini 3 Pro, Sonnet 4.5, Grok 4
каждая LLM пишет свой ответ
затем модели видят анонимные ответы друг друга, оценивают, комментируют и ставят ранги
и наконец председатель совета формирует итоговый ответ на основе коллективного решения
Интересный факт: модели зачастую признают лучшим ответ другой модели, а не свой. Регулярно выбирают GPT-5 как наиболее качественного члена совета, а Claude, наоборот, оценивают ниже.
LLM Council показывает, что ансамбли моделей могут давать решения стабильнее и точнее, чем единичная LLM, — просто потому что системы проверяют и балансируют ответы друг друга.
🔗 GitHub [52]
Теперь Perplexity умеет оформлять найденную информацию в презентации, таблицы и структурированные тексты. Полезно, если вы проводите исследование внутри Perplexity и хотите получить результаты в готовом формате.
Фича уже доступна подписчикам Pro и Max.
Работает просто:
делаете поиск или обзор темы
нажимаете на экспорт в презентацию / таблицу / документ
сервис сам структурирует данные и делает финальный материал
🔗 Perplexity [53]

В США запускают проект Genesis для ускорения научных открытий с помощью ИИ. Национальные лаборатории, суперкомпьютерные центры и частные компании — включая Nvidia, Anthropic и Dell — объединят вычислительные ресурсы и данные в единую платформу.
Приоритеты: биотехнологии, медицина, ядерная и термоядерная энергетика, космос, квантовые технологии, новые материалы и полупроводники. Проект сравнивают с программой «Аполлон» — цель сократить время научных прорывов с лет до дней.
Гипотезы будут проверяться через роботизированные лаборатории: модель формулирует идею → робот выполняет эксперимент → результат возвращается модели.
Финансирование пока не раскрывают, но именно координация ресурсов может стать ключевым преимуществом США — особенно на фоне ограниченного доступа Китая к передовым GPU.
🔗 White House [54] 🔗 CBS News [55]
Раработали гарнитуру, которая стимулирует разные зоны мозга [56]. С ней люди могли почувствовать запах [57] свежего воздуха, костра и даже мусора.
Всё это при помощи воздействия ультразвука на ольфакторные зоны мозга. Ощущения возникают не от носа, а от активации соответствующих нейронных схем.
Если разработка дойдёт до VR/AR, можно будет чувствовать запахи в играх и фильмах, ещё глубже погружаясь в атмосферу.
🔗 Исследование [58]

В США начинают клинические испытания нейроимпланта Connexus от компании Paradromics — устройства, которое может вернуть парализованным людям способность говорить. Сначала имплант протестируют на двух пациентах, затем — ещё на восьми.
Чип размером с монетку подключается к зонам мозга, отвечающим за артикуляцию [59] — движения губ, языка и гортани. Внутри — 421 платино-иридиевый электрод, толщиной около 40 микрон каждый, что тоньше человеческого волоса.
Когда человек мысленно «произносит» слова, имплант считывает нейронные сигналы и отправляет их на нагрудный ресивер. Тот передаёт данные компьютеру, где нейросеть преобразует их в речь. Система адаптируется под конкретного пользователя, обучаясь на его нейронных паттернах.
Paradromics основана в 2015 году — на год раньше Neuralink — и считается одним из ключевых конкурентов проекта Маска. Компания привлекла более $100 млн инвестиций и получила около $18 млн грантов от правительства США.
🔗 Connexus [60]
Компания Figure AI официально отправила робота F.02 на пенсию после почти года работы на заводе BMW в Южной Каролине.
За 11 месяцев, по 10 часов в день, 5 дней в неделю, робот провёл на линии более 1250 часов, помогая собрать свыше 30 000 автомобилей. На его корпусе видны реальные следы износа: потертости, царапины и даже своего рода мозоли на руках.
На основе опыта [61] F.02 разработали новую модель — F.03.
BMW публично подтверждали, что единовременно на линии работал только один андроид, причём преимущественно в непроизводственные часы и под наблюдением инженеров.
Так что паниковать по поводу скорого «захвата заводов роботами» пока рано — реальная автоматизация идёт постепенно, и пока люди важны в цепочке не меньше машин.

27 ноября 1895 года Альфред Нобель, изобретатель динамита и один из самых богатых промышленников эпохи, подписал завещание, изменившее его репутацию. Он понял, что его изобретение, созданное для блага, несет угрозу. Сегодня разработчики находятся в том же положении.
Мы создали «когнитивный динамит» — технологию с непредсказуемой мощностью. Главный вопрос нашей эпохи: кто станет новым Нобелем? И как нам заставить наш код работать на физику мира, а не на химию войны, пока мы не прочитали собственный цифровой некролог?
Неделя выдалась мощной: Claude Opus 4.5 задал новый стандарт кодинга, GigaChat 3 вышел в опенсорс. В генеративке соревнуются FLUX.2 и Gemini 3 Pro Image, параллельно вышли LLM Council, PaperReview обновления Cursor и Perplexity.
ИИ растёт не точечно, а системно — охватывая код, графику, работу с документами, биологию, медицину и промышленность.
До встречи в следующем выпуске!
Новости, обзоры продуктов и конкурсы от команды [62]Timeweb.Cloud [63] — в нашем Telegram-канале [62] ↩
Автор: Wonderlove
Источник [64]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/22463
URLs in this post:
[1] интеллекта: http://www.braintools.ru/article/7605
[2] Вандер: http://t.me/neuroport
[3] Claude Opus 4.5 — прорыв в кодинге: #101
[4] OpenAI сделали DeepResearch для шоппинга: #102
[5] GigaChat 3 с открытыми весами: #103
[6] Heretic — автоматическое снятие цензуры с LLM: #104
[7] Обновлённая GPT-5.1-Codex-Max: #105
[8] Gemini 3 Pro Image — новая версия Nano Banana: #106
[9] FLUX.2 — ответ Nano Banana 2 от BFL: #107
[10] HunyuanVideo 1.5 — открытый генератор видео: #108
[11] Kandinsky 5.0 — новая линейка для генерации контента: #109
[12] Обновление Cursor 2.1: #110
[13] PaperReview — ИИ-инструмент для проверки научных работ: #111
[14] Консилиум LLM’ок — LLM Council: #112
[15] Perplexity теперь создаёт презентации: #113
[16] Genesis — проект по ускорению науки с помощью ИИ: #114
[17] Учёные научились «включать» любые запахи: #115
[18] Нейрочип для восстановления речи: #116
[19] Робота F.02 отправили на пенсию: #117
[20] Тема выпуска: #118
[21] Блогпост: https://www.anthropic.com/news/claude-opus-4-5
[22] ChatGPT: https://chatgpt.com
[23] обучения: http://www.braintools.ru/article/5125
[24] GitHub: https://github.com/salute-developers/gigachat3
[25] HuggingFace Ultra-Preview: https://huggingface.co/ai-sage/GigaChat3-702B-A36B-preview
[26] HuggingFace Lightning: https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B
[27] Статья на Хабре: https://habr.com/en/companies/sberdevices/articles/968904/
[28] реакцию: http://www.braintools.ru/article/1549
[29] внимания: http://www.braintools.ru/article/7595
[30] arXiv: https://arxiv.org/abs/2406.11717
[31] Heretic GitHub: https://github.com/p-e-w/heretic
[32] памяти: http://www.braintools.ru/article/4140
[33] Блогпост: https://openai.com/index/gpt-5-1-codex-max/
[34] Codex: https://openai.com/codex/
[35] логике: http://www.braintools.ru/article/7640
[36] Блогпост: https://deepmind.google/models/gemini-image/pro/
[37] API: https://ai.google.dev/gemini-api/docs/image-generation
[38] Gemini App: https://gemini.google.com/app
[39] Cookbook: https://colab.research.google.com/github/google-gemini/cookbook/blob/main/quickstarts/Get_Started_Nano_Banana.ipynb
[40] Блогпост: https://bfl.ai/blog/flux-2
[41] FLUX Playground: https://playground.bfl.ai/image/generate
[42] HuggingFace: https://huggingface.co/black-forest-labs/FLUX.2-dev
[43] GitHub: https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5
[44] HuggingFace: https://huggingface.co/tencent/HunyuanVideo-1.5
[45] Официальный сайт модели: https://hunyuan.tencent.com/video/zh?tabIndex=0
[46] GitHub: https://github.com/kandinskylab/kandinsky-5
[47] HuggingFace: https://huggingface.co/kandinskylab
[48] Техрепорт: https://huggingface.co/papers/2511.14993
[49] Changelog: https://cursor.com/changelog
[50] Cursor: https://cursor.com/
[51] PaperReview: https://paperreview.ai/
[52] GitHub: https://github.com/karpathy/llm-council
[53] Perplexity: https://perplexity.ai
[54] White House: https://www.whitehouse.gov/fact-sheets/2025/11/fact-sheet-president-donald-j-trump-unveils-the-genesis-missionto-accelerate-ai-for-scientific-discovery/
[55] CBS News: https://www.cbsnews.com/news/trump-executive-order-genesis-mission-ai-scientific-discovery-super-computer/
[56] мозга: http://www.braintools.ru/parts-of-the-brain
[57] запах: http://www.braintools.ru/article/9870
[58] Исследование: https://writetobrain.com/olfactory
[59] артикуляцию: http://www.braintools.ru/article/5128
[60] Connexus: https://www.paradromics.com/product
[61] опыта: http://www.braintools.ru/article/6952
[62] Новости, обзоры продуктов и конкурсы от команды : https://t.me/timewebru
[63] Timeweb.Cloud: http://Timeweb.Cloud
[64] Источник: https://habr.com/ru/companies/timeweb/articles/970682/?utm_source=habrahabr&utm_medium=rss&utm_campaign=970682
Нажмите здесь для печати.