В мае этого года прошла конференция Google I/O 2025, где компания представила целый ряд технологических новинок и обновлений своих флагманских продуктов. В этой статье подробно пройдёмся по ключевым анонсам мероприятия.
Google Beam

Beam — это система для трёхмерных видеозвонков с эффектом присутствия собеседника. Проект основан на экспериментальной технологии Project Starline, но, в отличие от оригинала, стал более компактным, доступным и ориентированным под офисы и переговорные комнаты.
Главная особенность Beam — создание трёхмерной модели человека в реальном времени без применения AR и VR-гарнитуры. Для этого система использует:
-
Массив из 6 камер, которые снимают собеседника под разными углами и точно передают его мимику, жесты и микродвижения.
-
ИИ и объёмную видеомодель. ИИ превращает отснятое видео в динамическую трёхмерную модель: воссоздаёт недостающие части, устраняет артефакты и делает проекцию максимально реалистичной.
-
Световое поле. Готовое трёхмерное изображение транслируется на специальный light-field дисплей — это создаёт эффект глубины и перспективы без дополнительной гарнитуры.
-
Пространственный звук с трекингом, который отслеживает положение головы и рта человека, чтобы точно синхронизировать аудио с виртуальным образом.
Кроме того, система практически сразу переводит иностранную речь, сохраняя тон, голос и мимику говорящего.
Beam уже интегрирован с Google Meet и Zoom. Также планируется сотрудничество с Deloitte, Salesforce, Recruit и другими крупными брендами.
Gemini в Chrome
C 21 мая 2025 года Gemini доступен в Chrome для Windows и macOS, включая бета/канареечные/Dev‑сборки. Пока что нейросеть доступна только на английском языке и только для подписчиков Google AI Pro/Ultra в США.
Gemini умеет:
-
извлекать ключевые тезисы из статьи или сайта;
-
объяснять сложные термины и уточнять содержание страницы;
-
сравнивать характеристики, описания или идеи в пределах одной вкладки;
-
определять и описывать объекты на изображениях;
-
распознавать, что происходит на видео — например, может сформировать список ингредиентов и пошаговый рецепт из кулинарного ролика;
-
перефразировать текст страницы в нужном стиле.
При этом нейросеть не может объединять данные из разных страниц — эта функция запланирована на будущее. Также разработчики обещают добавить поддержку новых регионов, а с 19 июня через Gemini в Chrome можно планировать действия для предстоящих задач и раз в неделю получать новости на релевантные темы.
Imagen 4 и Veo 3
Veo 3 — новейшая ИИ-модель для создания реалистичных видео из текстовых подсказок. В отличие от прошлой версии, здесь можно генерировать ролики сразу со звуком — от диалогов и фонового шума до звуковых эффектов и музыки.
Veo 3 поддерживает 4K-разрешение, лучше понимает промпты и отлично имитирует физику реального мира — учитывает массу объектов, скорость движения, поведение света и теней. Система использует возможности DeepMind в области video-to-audio ИИ и автоматически генерирует звук к видео. Также здесь можно использовать референсные изображения для сцен, объектов и персонажей.
В июне 2025 года у Veo 3 появился новый режим Fast — более быстрая и дешевая модель, которая рендерит ролики за 1-3 минуты и расходует на это в 5 раз меньше кредитов, чем оригинальная версия. При этом разрешение сгенерированных видео — от 720p до 1080p (в зависимости от подписки).
Imagen 4 — новая версия нейросети для генерации фотореалистичных изображений. Модель работает на Google DeepMind и поддерживает 2K-разрешение, лучше отрисовывает текст, четче выражает текстуры и отлично справляется со сбалансированным кадрированием.
24 июня 2025 Imagen 4 официально доступен в Gemini API и Google AI Studio и состоит из двух пакетов — Ultra и Standard.
Flow
ИИ-платформа для создания полноценных фильмов, которая сочетает возможности Veo 3, Imagen 4 и Gemini, где:
-
Veo 3 отвечает за реалистичную графику, физику мира, движения камеры и генерацию звука;
-
Imagen 4 дополняет Veo и прорабатывает мельчайшие визуальные детали: текстуры, освещение, отражения, фоновые элементы и художественные акценты;
-
Gemini управляет всей системой: интерпретирует текстовые запросы, помогает настроить сцену, отредактировать ролик или составить логичную последовательность видео.
Ключевая особенность Flow — поддержка визуальной и сюжетной целостности между сценами. ИИ запоминает вид и поведение персонажей, объектов и окружения, а затем сохраняет их от сцены к сцене. Так ролики выглядят как полноценная история, а не набор случайных клипов.
Gemini 2.5 Pro с Deep Think
Deep Think — это экспериментальный режим для Gemini 2.5 Pro, который использует параллельное мышление и рассматривает несколько вероятных гипотез для решения одной и той же задачи.
Модуль Deep Think показал значительные успехи в высшей математике, программировании и мультимодальных рабочих процессах — здесь он опередил простую версию Gemini 2.5 Pro в среднем на 9%.

Также он стал лидером рейтингов WebDev Arena и LMArena, обогнав ChatGPT o3 Pro и DeepSeek.
Кроме того, 17.06.2025 состоялся релиз самой дешевой и быстрой модели Gemini 2.5 Flash-Lite. Она доступна в Google AI Studio, Gemini API, Vertex AI и оперирует данными от января 2025 года.
Project Aura

Это новые смарт-очки на базе ОС Android XR. Они немного крупнее обычных солнцезащитных аксессуаров и оснащены микрофонами, камерами, дисплеями, динамиками и чипом Qualcomm.
С помощью гаджета можно переводить меню в ресторане, слушать музыку, отвечать на звонки, делать фото, строить маршруты, а также распознавать объекты в реальном времени — например, если посмотреть на городскую достопримечательность, ИИ от Gemini покажет её историю. При этом очки можно в любой момент отрегулировать и переключиться с цифрового контента на реальный мир.
Разработчики обещают подробнее рассказать о Project Aura на будущей выставке Augmented World Expo. Релиз очков ожидается не раньше начала 2026 года.
Stitch
Stitch — инструмент для проектирования интерфейсов веб-приложений через текстовые подсказки, скетчи или скриншоты. Платформа сочетает визуальный редактор, ИИ-генератор кода и поддержку пользовательской логики внутри макета.
Здесь можно настроить цветовую палитру, визуальный стиль, пользовательский путь, типографику и сценарии поведения интерфейса. На выходе получается один или несколько вариантов дизайна, которые можно:
-
скачать как HTML/CSS;
-
экспортировать в Figma с полноценными слоями;
-
продолжить редактировать внутри системы.
Бесплатная версия Stitch работает на Gemini 2.5 Flash, но пользователям Google One AI Premium доступна версия с Gemini 2.5 Pro — с глубоким анализом скриншотов, лучшим пониманием промптов и мультимодальностью.
Jules

Jules — это автономный ИИ-агент для кодирования, который напрямую подключается к репозиторию, копирует проект в изолированную среду Google Cloud и одновременно выполняет несколько задач:
-
анализ кода;
-
тестирование;
-
добавление новых функций;
-
исправление багов;
-
обновление зависимостей.
Система построена на Gemini 2.5 Pro и работает в фоновом режиме. При этом агент анализирует всю кодовую базу и принимает решения с учетом архитектуры, зависимостей и бизнес-логики проекта. В конце работы Jules показывает план действий, аргументацию решений и список изменений в коде.
Протестировать новинку можно через Google Labs после регистрации. Также Google ведет открытый репозиторий на GitHub с примерами запросов, которые помогут быстрее освоить Jules.
AI Mode
Новая вкладка в Google Search на базе кастомизированной версии Gemini 2.5. Нейросеть работает с ChromeOS нативно и учитывает происходящее не только в браузере, но и в других приложениях.
Из ключевых функций ассистента:
-
Контекстная помощь. Фиксирует, чем занят пользователь — пишет письмо в Gmail, оформляет документ в Google Docs или кодит в IDE — и предлагает релевантную поддержку. Например, ИИ может переделать фразу, улучшить стиль текста или объяснить кусок кода.
-
Мгновенные резюме. Если пользователь выделит статью или длинную переписку, AI Mode поможет составить их сжатое содержание.
-
Инструменты для письма и редактирования. В интерфейс Google Docs и Gmail добавлена генерация абзацев по плану, улучшение формулировок и корректировка стиля — например, «вежливее», «короче» или «формальнее».
-
Работа с графикой. ИИ может сгенерировать и отредактировать изображение — например, создать иллюстрацию по текстовому описанию, изменить фон на фото или составить аватар для презентации.
-
Поддержка кода. В AI Mode встроены элементы Gemini Code Assist. Он может анализировать код, дополнять фрагменты, объяснять работу функций и генерировать тесты.
Также в Search Labs можно протестировать глубокий поиск, виртуальную примерку одежды, визуализацию данных и другие возможности AI Mode.
AI Mode официально доступен всем пользователям из США и через Google Labs — для жителей Индии.
Что еще показали на I/O 2025
На мероприятии в Google представили более 100 анонсов — среди них также заслуживают внимания:
-
Google Meet с переводом в реальном времени. Система переводит речь практически мгновенно и учитывает тон, темп и интонацию говорящего.
-
AI Ultra. Новый тарифный план с самыми высокими лимитами и передовыми возможностями. Сюда входят последние модели Gemini, расширенные функции Deep Research, ранний доступ к Veo 3, инструменты Flow и Whisk, а также повышенные лимиты в NotebookLM.
-
Project Astra. Голосовой ИИ-ассистент нового поколения, который видит, слышит и анализирует окружающий мир в реальном времени через камеру.
Кроме того, на конференции презентовали SynthID Detector, обновленный Google Workspace, Firebase AI Logic и другие инновационные проекты.
Заключение
Google I/O 2025 показала полную переориентацию компании на ИИ. От новых режимов Gemini до современных AR/VR-систем — нейросети буквально пронизывают всю экосистему продуктов Google.
Этот подход не только повышает удобство и персонализацию технологий компании, но и определяет инструменты, которые будут формировать цифровой опыт в будущем.
Автор: Sber


