- BrainTools - https://www.braintools.ru -
Google продолжает прокачивать линейку Gemini и сегодня выкатила Gemini 3.1 Pro — модель, которую позиционируют как «базовую умную силу» для задач, где обычного ответа «вот ссылка / вот краткий совет» уже не хватает. Речь про многошаговые рассуждения, сведение данных в единую картину, объяснения сложных тем «с картинкой в голове» и генерацию более «инженерного» результата, а не просто текста.
Неделю назад Google обновила Gemini 3 Deep Think — их режим/ветку для более «тяжёлых» научно‑инженерных сценариев. Теперь компания говорит, что 3.1 Pro — это как раз обновлённая «ядровая интеллект‑часть», которая и сделала возможными улучшения Deep Think. Проще: Deep Think — это про режим/подход, а 3.1 Pro — про свежую базовую модель, которую начнут раздавать шире.
Что именно обновили (по заявлению Google) — упор в «core reasoning», то есть в способность стабильно решать новые, непривычные логические паттерны. В качестве флага они выносят результат на ARC‑AGI-2: 77,1% verified score, и утверждают, что это «более чем вдвое» лучше, чем у Gemini 3 Pro. ARC‑AGI-2 любят именно за то, что он проверяет не «натасканность на типовые задачки», а умение сообразить новую логику [1].

Роллаут начинается «сегодня», но с классической оговоркой «preview». Доступ обещают сразу в нескольких слоях экосистемы:
— Разработчикам (preview): Gemini API в Google AI Studio, Gemini CLI, agentic‑платформа Google Antigravity, а также интеграции для Android Studio.
— Enterprise: через Vertex AI и Gemini Enterprise.
— Пользователям: через приложение Gemini и NotebookLM (там, по тексту анонса, доступ завязан на подписки Pro/Ultra и повышенные лимиты).
Из прикладных примеров в анонсе выделяется довольно «разработческая» фича: генерация анимированных SVG «в коде» по текстовому запросу. Месседж тут понятный: если анимация — это код, а не видео/пиксели, то она масштабируется без мыла и весит заметно меньше. В целом это продолжение тренда: модели соревнуются не только в том, как красиво болтать, но и в том, как отдавать артефакты, которые можно сразу тащить в репозиторий.
Google прямо пишет [2], что выпускает 3.1 Pro в preview, чтобы «валидировать апдейт» и параллельно продолжать улучшения, особенно в сторону agentic‑workflows (когда модель не просто отвечает, а планирует и выполняет цепочку шагов в инструментах). Общая доступность обещана «скоро».
Если переводить на человеческий: Google делает ставку на то, что 3.1 Pro станет новой «рабочей лошадью» для сложных задач в продуктах и дев‑инструментах, а не только витринной моделью для бенчмарков.
Практические курсы по нейросетям от экспертов — в каталоге. [3] Подберите трек под свою роль: от базовой подготовки до продакшен-задач.
Для знакомства с форматом обучения [4] и экспертами приходите на бесплатные демо-уроки:
24 февраля 19:00. «Обзор фреймворков для создания агентов». Записаться [5]
25 февраля 20:00. «Data Drift в машинном обучении: почему модели деградируют в продакшене и как это контролировать». Записаться [6]
26 февраля 20:00. «Продвинутые техники RAG и введение в GraphRAG». Записаться [7]
Автор: kmoseenk
Источник [8]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/25937
URLs in this post:
[1] логику: http://www.braintools.ru/article/7640
[2] пишет: https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/?utm_source=chatgpt.com
[3] в каталоге.: https://otus.pw/a6GV/
[4] обучения: http://www.braintools.ru/article/5125
[5] Записаться: https://otus.pw/Ykl1/
[6] Записаться: https://otus.pw/D7FM/
[7] Записаться: https://otus.pw/8oDk/
[8] Источник: https://habr.com/ru/companies/otus/news/1001606/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1001606
Нажмите здесь для печати.