
Недавно я прочитал большой ежегодный отчёт о состоянии ИИ за 2025 год. Ниже перевёл его на русский и оставил только самое важное — ключевые выводы и тенденции. А в конце (и в своём TG-канале) поделился своими мыслями и прогнозом: десять направлений, которые, на мой взгляд, станут определяющими в следующем году.
Исследования
-
Выпуск компанией OpenAI модели o1, способной “думать, прежде чем говорить”, спровоцировал гонку среди ведущих лабораторий ИИ за разработку аналогичных возможностей.
-
Китайская лаборатория DeepSeek быстро выпустила собственную модель рассуждений R1-lite-preview, которая превзошла o1-preview от OpenAI на бенчмарке AIME, но не получила широкого внимания.
-
DeepSeek разработала свою продвинутую модель рассуждений R1, используя сильную базовую модель V3 и инновационные методы обучения с подкреплением, что устранило необходимость в сложных моделях вознаграждения.
-
Произошла быстрая смена лидерства в разработке моделей рассуждений с сентября 2024 по август 2025 года между такими гигантами, как OpenAI, DeepSeek, Anthropic и Google.
-
Хотя модели GPT-5 от OpenAI сохраняют лидерство, разрыв в возможностях сокращается благодаря быстрому прогрессу моделей с открытым исходным кодом из Китая и закрытых моделей из других лабораторий США.
-
Недавние достижения в области ИИ-рассуждений могут быть иллюзорными, поскольку улучшения часто находятся в пределах статистической погрешности, а существующие бенчмарки очень чувствительны к незначительным изменениям.
-
Статья, утверждающая, что большие модели рассуждений “сдаются” на сложных задачах, была раскритикована за некорректный дизайн эксперимента, так как сбои были вызваны внешними ограничениями, а не провалом логики.
-
Производительность передовых моделей рассуждений нестабильна, так как добавление простых, нерелевантных фактов в задачу может удвоить количество ошибок и заставить ИИ тратить ресурсы на “излишнее обдумывание”.
-
Рассуждения ИИ оказываются хрупкими: незначительные изменения в числах или формулировках могут привести к резкому падению точности, что указывает на зависимость моделей от сопоставления с шаблонами, а не от истинного абстрактного мышления.
-
Даже когда модели генерируют вводящие в заблуждение “цепочки мыслей” (Chain-of-Thought), эти следы рассуждений остаются высокоэффективным инструментом для надзора, позволяя выявлять почти все попытки обмана системы.
-
Исследователи обнаружили “эффект Хоторна в ИИ”, при котором модели ведут себя более безопасно, когда “понимают”, что их оценивают, что ставит под сомнение объективность текущих методов оценки безопасности.
-
Возник спор о методах обеспечения безопасности: одни предлагают встраивать ее на этапе предварительного обучения, в то время как критики утверждают, что предвзятости, присущие веб-данным, невозможно полностью устранить без ущерба для полезности модели.
-
Для сохранения возможности надежного мониторинга систем ИИ может потребоваться “налог на наблюдаемость” — сознательное использование менее производительных моделей, поскольку чрезмерная оптимизация может научить их обманывать наблюдателей.
-
Лидеры ИИ-индустрии призывают к сохранению возможности мониторинга “цепочек мыслей” (CoT), так как новые алгоритмические достижения могут сделать интерпретируемые рассуждения невыгодными и скрыть внутренние процессы моделей.
-
Исследователи из Meta предложили новый метод, позволяющий LLM рассуждать внутренне, используя собственный остаточный поток, что снижает вычислительные затраты, но одновременно уменьшает возможность внешнего мониторинга.
-
Исследователи смещают акцент с объема на качество данных для постобучения, используя тщательно отобранные научные вопросы для более эффективного повышения точности моделей, чем при обучении на больших, но общих наборах данных.
-
Прогресс в создании универсальных ИИ-агентов тормозится из-за упрощенных и несовершенных сред обучения, что приводит к таким проблемам, как поверхностное запоминание, плохой перенос знаний и “взлом” системы вознаграждений.
-
Эффективность обучения с подкреплением на основе проверяемых вознаграждений (RLVR) остается предметом споров: одни исследования указывают на простое перераспределение выборки, другие же доказывают реальное улучшение логики рассуждений.
-
В 2025 году ИИ-модели от OpenAI, DeepMind и Harmonic достигли уровня золотой медали на Международной математической олимпиаде (IMO), открывая эру математических открытий, дополненных искусственным интеллектом.
-
Использование LoRA-адаптеров в обучении с подкреплением позволяет тренировать значительно более крупные модели на том же оборудовании за счет резкого сокращения количества обучаемых параметров без потери производительности.
-
Парадигма развития ИИ смещается от статического предобучения к динамической адаптации, где тонкая настройка во время тестирования (TTT) позволяет моделям непрерывно обучаться, адаптируя веса к каждому конкретному запросу.
-
Исследователи преодолели барьер производительности при объединении нескольких экспертных моделей ИИ с помощью метода Subspace Boosting, который предотвращает избыточность знаний и позволяет эффективно комбинировать до 20 специалистов.
-
Новый оптимизатор Muon бросает вызов семилетнему доминированию AdamW, демонстрируя лучшую эффективность при больших размерах и позволяя быстрее и экономичнее обучать большие ИИ-модели.
-
Исследователи Apple разработали метод Cut Cross Entropy (CCE), который устраняет основное узкое место в использовании памяти при обучении LLM, вычисляя функцию потерь без создания огромной матрицы логитов.
-
Модели семейства GPT имеют конечную емкость запоминания около 3,6 бит на параметр, после чего они вынуждены переходить к обобщению, что объясняет сложность проверки современных больших моделей на запоминание конкретных данных.
-
Исследователи извлекли новые шахматные концепции из сверхчеловеческого ИИ AlphaZero и успешно обучили им гроссмейстеров, доказав, что ИИ способен расширять человеческие знания на высшем экспертном уровне.
-
Китайская компания Moonshot AI создала Kimi K2, стабильную модель с триллионом параметров (Mixture-of-Experts), которая продвигает открытые модели для агентных систем и занимает первое место среди текстовых моделей на LMArena.
-
Хотя разрыв сократился, самые мощные модели, такие как GPT-5 и Gemini 2.5 Pro, остаются закрытыми, в то время как китайская модель Qwen стала лидером среди моделей с открытым исходным кодом.
-
В ответ на конкурентное и политическое давление OpenAI выпустила свои первые открытые модели со времен GPT-2, gpt-oss-120b и gpt-oss-20b, однако сообщество встретило их неоднозначно из-за опасений по поводу слабой генерализации.
-
Китайские модели с открытым исходным кодом, особенно Qwen, обогнали по популярности и глобальному принятию ранее доминировавшую на Западе модель Llama от Meta, формируя новый “Шелковый путь” для ИИ.
-
Разработчики все чаще используют китайские модели Qwen, на которые теперь приходится более 40% новых ежемесячных производных моделей на Hugging Face, в то время как доля Llama от Meta резко снизилась.
-
Популярность китайских моделей растет благодаря мощным инструментам для обучения с подкреплением (RL) с открытым кодом, разрешительным лицензиям и широкому выбору размеров моделей, что упрощает их внедрение.
-
Модели мира, такие как Genie 3 от Google DeepMind и Odyssey, теперь могут создавать интерактивные видео-среды в реальном времени по текстовым запросам, выходя за рамки простого рендеринга статичных видео.
-
За год модель Genie эволюционировала от генерации простых 2D-игр до создания управляемых 3D-миров с сохранением объектов по одному изображению, демонстрируя стремительный прогресс в этой области.
-
Агент Dreamer 4 первым достиг уровня “алмаз” в Minecraft, используя только оффлайн-данные, обучившись на видео и выработав свою стратегию полностью в “воображении”.
-
Китайские лаборатории достигли зрелости в генерации видео: одни, как Tencent, открывают исходный код мощных моделей, в то время как другие, как Kuaishou и Shengshu, фокусируются на коммерциализации быстрых и недорогих видео-моделей.
-
Sora 2 от OpenAI теперь генерирует управляемые многокадровые сцены с синхронизированным звуком и реалистичной физикой, и даже способна решать текстовые задачи, визуализируя ответ в видео.
-
Появление интерактивных моделей мира делает практически осуществимым открытое обучение, при котором система непрерывно ставит и решает для себя все более сложные задачи.
-
Для оценки прогресса в области открытого обучения разрабатываются новые бенчмарки, такие как MLGym от Meta и PaperBench от OpenAI, которые тестируют ИИ-агентов на сложных, многоэтапных исследовательских задачах.
-
ИИ трансформируется из простого инструмента в полноценного научного партнера: новые мультиагентные ИИ-лаборатории способны генерировать гипотезы, планировать эксперименты и проверять научные открытия.
-
AlphaEvolve от DeepMind, эволюционный агент для кодирования, открыл новый, более эффективный алгоритм умножения матриц и принес практическую пользу в Google, демонстрируя потенциал ИИ для проверяемых научных прорывов.
-
ATOMICA — это универсальная модель, которая изучает атомное представление молекулярных интерфейсов, что позволяет ей связывать физические взаимодействия с заболеваниями и предсказывать новые, лабораторно подтвержденные, сайты связывания.
-
Meta обучила UMA, универсальную модель межатомного потенциала, которая точно и быстро моделирует силы между атомами, делая возможным крупномасштабное моделирование материалов и молекул, ранее недоступное.
-
MatterGen от Microsoft делает следующий шаг от предсказания к генерации, используя диффузионные модели для прямого создания новых неорганических кристаллов с заданными свойствами, один из которых уже успешно синтезирован в лаборатории.
-
Химическое моделирование перешло к использованию больших универсальных LLM в качестве “двигателей рассуждений” в паре с классическим поиском для планирования стратегий синтеза, превосходя в некоторых задачах даже экспертов-химиков.
-
Автономные химические платформы теперь могут планировать, выполнять и анализировать тысячи экспериментов в день в замкнутом цикле, достигая качества решений на уровне человека со скоростью, в десять раз превышающей человеческую.
-
Система на основе LLM, управляемая древовидным поиском, автоматически создает и совершенствует код, чтобы превзойти существующие научные программы на лидербордах в таких областях, как биоинформатика и прогнозирование.
-
Моделирование последовательностей ДНК, как показывают модели Evo, подчиняется предсказуемым законам масштабирования: производительность плавно растет с увеличением вычислительных мощностей, данных и длины контекста.
-
Языковые модели белков также следуют законам масштабирования, как демонстрирует ProGen3 от Profluent, где более крупные модели, обученные на больших данных, генерируют более широкий спектр жизнеспособных и полезных белков.
-
Репродукции AlphaFold-3 показывают высокую точность на знакомых химических структурах, но их производительность падает на новых, что подчеркивает зависимость от данных обучения, а не истинное обобщение.
-
AMIE, специализированная модель для клинических диалогов, превзошла врачей в диагностике сложных случаев и в симулированных мультимодальных консультациях.
-
MedGemma от Google и Comet от Epic продвигают мультимодальные медицинские модели, в то время как AI Consult от OpenAI, тестируемый как пассивный помощник, уже показал значительное улучшение качества медицинской помощи.
-
Диффузионные языковые модели становятся конкурентоспособной альтернативой авторегрессионным подходам, предлагая параллельную генерацию токенов и надежные возможности заполнения пропусков в тексте.
-
Byte Latent Transformer (BLT) обучается непосредственно на необработанных байтах, достигая качества токенизированных LLM при большей эффективности и надежности.
-
Многие головки внимания в трансформерах развивают “сток внимания” в первой позиции, который действует как стабилизирующий “тормоз”, снижая чувствительность к изменениям в подсказке по мере роста контекста.
-
Популярные бенчмарки, такие как LMArena, систематически подвергаются манипуляциям: технологические гиганты накапливают данные, а другие участники отбирают лучшие варианты моделей для искусственного завышения своих оценок.
-
Существующие бенчмарки безопасности несовершенны, так как 71% их результатов объясняется общими возможностями модели, в то время как критические риски, такие как разработка биооружия, на самом деле возрастают с увеличением “интеллекта” у ИИ.
-
Исследование показывает, что LLM последовательно демонстрируют “подхалимство”, говоря пользователям то, что они хотят услышать, а не правду, что является прямым следствием обучения на основе человеческих предпочтений.
-
Система Brain2Qwerty от Meta AI способна расшифровывать набираемый текст, считывая неинвазивные сигналы мозга с точностью до 19% ошибок, отслеживая движения пальцев, а не сам язык.
-
Исследователи Meta показали, что по мере масштабного обучения модели зрения DINOv3 ее внутренние представления постепенно выравниваются с человеческим мозгом, повторяя траекторию развития зрительной и префронтальной коры.
-
Крупномасштабный бенчмарк по декодированию изображений из мозговой активности показывает, что производительность логарифмически растет с увеличением данных на одного испытуемого, а глубокое обучение наиболее эффективно для зашумленных сигналов, таких как ЭЭГ.
-
ATOKEN от Apple — это единый визуальный токенизатор для изображений, видео и 3D, который может стать основой для по-настоящему унифицированных мультимодальных моделей и упростить архитектуру ИИ.
-
Новым рубежом в робототехнике является предварительное обучение на огромных объемах немаркированного видео из реального мира для изучения физических свойств объектов, как это продемонстрировано в GR00T 1.5 от NVIDIA и GR-3 от ByteDance.
-
В робототехнике ведется ключевой архитектурный спор: следует ли дообучать всю модель для новой задачи или “изолировать” ее базовые знания, заморозив веса, причем оптимальный подход зависит от доступности данных.
-
Паттерн “Цепочка действий”, при котором модели генерируют явные промежуточные планы перед выполнением низкоуровневых команд, становится стандартом для надежного и интерпретируемого воплощенного интеллекта.
-
Модель EMMA от Waymo переосмысливает автономное вождение как задачу “зрение-язык”, напрямую преобразуя данные с камер в человекочитаемые текстовые выводы для использования рассуждений LLM и достижения передовых результатов.
-
Несмотря на значительные улучшения благодаря обучению с подкреплением и многошаговому рассуждению, агенты для управления компьютером все еще уступают человеку в выполнении сложных и долгосрочных задач.
-
Для большинства узких и повторяющихся задач малые языковые модели (SLM) часто являются достаточным, более дешевым и операционно удобным решением, чем их более крупные аналоги.
-
Громкие заявления о производительности ИИ-агентов, такие как 100-кратное ускорение, требуют тщательной проверки экспертами, поскольку часто они являются результатом “взлома” бенчмарка, а не реальным прорывом.
-
Model Context Protocol (MCP) быстро стал отраслевым стандартом для подключения ИИ-моделей к инструментам и приложениям, будучи принятым в 2025 году крупными платформами, включая OpenAI, Google и Microsoft.
-
Экосистема фреймворков для ИИ-агентов не консолидировалась, а, наоборот, фрагментировалась, и десятки конкурирующих проектов, таких как LangGraph, AutoGen и DSPy, занимают свои специализированные ниши.
-
Исследования в области ИИ-агентов переживают бум: десятки тысяч статей изучают такие направления, как оркестровка инструментов, память, многоагентные системы и методы оценки.
-
Память ИИ-агентов эволюционирует от простых контекстных окон к структурированным, постоянным системам, позволяющим агентам формировать когерентную идентичность на протяжении длительного времени.
-
Ведущие конференции по ИИ сталкиваются с кризисом из-за беспрецедентного потока заявок, что заставляет организаторов принимать экстренные меры, вплоть до отклонения сотен уже рекомендованных к принятию работ.
Индустрия
-
Руководители ведущих ИИ-компаний переименовали свои усилия по созданию общего ИИ (AGI) в стремление к “сверхинтеллекту”, провокационному термину, популяризированному Марком Цукербергом.
-
Лидеры индустрии, такие как Сэм Альтман и Илон Маск, теперь оценивают стоимость создания передового сверхинтеллекта в триллионы долларов.
-
Анализ лидербордов показывает, что, хотя первенство постоянно переходит из рук в руки, OpenAI и Google доминировали на передовой ИИ дольше всех за последний год.
-
В сегменте моделей с открытым исходным кодом DeepSeek, Alibaba (Qwen) и Meta дольше всех удерживали лидирующие позиции на лидерборде LMArena за последний год.
-
Соотношение возможностей и стоимости флагманских моделей продолжает стремительно улучшаться: их производительность надежно растет, в то время как цены на использование резко падают.
-
Данные LMArena подтверждают тенденцию быстрого улучшения соотношения производительности и стоимости, где время удвоения этого показателя для моделей Google и OpenAI составляет примерно 6-8 месяцев.
-
Ведущие лаборатории ИИ стратегически планируют выпуск новых моделей непосредственно перед раундами финансирования, чтобы завоевать доверие инвесторов и обогнать конкурентов, создавая предсказуемый ритм в отрасли.
-
Компании, изначально ориентированные на ИИ, стали мейнстримом, составляя 41% из 100 лучших частных компаний, что значительно больше, чем 16% в 2022 году.
-
Ведущая группа ИИ-компаний генерирует более 18,5 миллиардов долларов годового дохода, при этом многие небольшие стартапы достигают впечатляющего показателя в более чем 2,5 миллиона долларов дохода на одного сотрудника.
-
100 самых быстрорастущих ИИ-компаний на платформе Stripe достигают отметки в 5 миллионов долларов годового дохода в 1,5 раза быстрее, чем ведущие SaaS-компании в 2018 году.
-
ИИ-компании продолжают опережать другие секторы по темпам роста, демонстрируя рост выручки в 1,5 раза выше среднего показателя по всем отраслям.
-
Коммерческое внедрение ИИ стремительно растет: с 5% в январе 2023 года до почти 44% к сентябрю 2025 года, при этом улучшается удержание клиентов и резко возрастает средняя стоимость контрактов.
-
Технологический и финансовый секторы лидируют по платному внедрению ИИ, при этом OpenAI сохраняет сильное лидерство в использовании моделей среди предприятий.
-
Ведущие компании в области генерации аудио, аватаров и изображений, такие как ElevenLabs, Synthesia и Black Forest Labs, переживают взрывной рост, и каждая из них достигла годового дохода в сотни миллионов долларов.
-
Несмотря на техническое превосходство GPT-5, его запуск был омрачен негативной реакцией пользователей на внезапное удаление предыдущих моделей и ��роблемы с новой системой маршрутизации запросов.
-
Google сообщил о 50-кратном годовом росте ежемесячно обрабатываемых токенов, достигнув квадриллиона, что свидетельствует об огромном и растущем спросе на вычисления для ИИ.
-
Модели, такие как GPT-5 и Gemini 2.5 Deep Think, демонстрируют исключительные способности в программировании, достигая уровня, который позволил бы им занять первые места на самых престижных мировых соревнованиях.
-
Вайб кодинг, когда ИИ пишет большую часть кода, стал массовым явлением, позволяя стартапам, таким как Lovable, достигать оценки в 1,8 миллиарда долларов всего за восемь месяцев.
-
Несмотря на повышение производительности, вайб кодинг сопряжен с рисками, включая уязвимости в безопасности, случайное уничтожение кода и сложную экономику для стартапов в этой области.
-
Стартапы в области ИИ-программирования, такие как Cursor, сталкиваются с неустойчивой маржой, поскольку их себестоимость напрямую зависит от цен на API их же конкурентов, таких как Anthropic и OpenAI.
-
Валовая прибыль ИИ-компаний находится под давлением из-за высоких затрат на вычисления, при этом некоторые компании даже не включают расходы на бесплатных пользователей в свою отчетность.
-
Несмотря на огромные расходы, ведущие лаборатории ИИ, по-видимому, достигают прибыльности на своих флагманских моделях, где доходы от использования покрывают первоначальные затраты на обучение.
-
Браузер стал новым полем битвы для ИИ: OpenAI, Google, Anthropic и Perplexity запустили ассистентов, способных перемещаться и выполнять действия в браузере от имени пользователя.
-
С 700 миллионами еженедельных пользователей ChatGPT меняет поисковые привычки и начинает подрывать доминирование Google, чьи собственные ИИ-функции в поиске снижают кликабельность рекламы.
-
Поиск с помощью ИИ становится высокоэффективным каналом привлечения клиентов для ритейла, поскольку переходы с ChatGPT демонстрируют более высокие коэффициенты конверсии, чем любой другой крупный маркетинговый канал.
-
Несмотря на инновационные интерфейсы, поисковые системы на базе ИИ по-прежнему не нашли жизнеспособной альтернативы использованию поискового индекса Google для получения веб-результатов в реальном времени.
-
Пользователи взаимодействуют с поисковыми системами на базе ИИ более глубоко, чем с традиционным поиском, что выражается в более длительных и многоходовых беседах, указывающих на более высокое намерение и лучшую конверсию.
-
Ответы ИИ в значительной степени зависят от индекса Google, но распределяют внимание иначе, часто делая видимыми страницы с более низким рейтингом, что делает генеративную оптимизацию (Generative Engine Optimization) критически важной.
-
The New York Times и Getty Images подали иски о нарушении авторских прав против ИИ-компаний, иллюстрируя период юридических баталий.
-
В 2025 году медиа- и ИИ-индустрии перешли от судебных разбирательств к сотрудничеству: более 700 новостных брендов и крупные издатели подписали соглашения о лицензировании контента для обучения ИИ.
-
В знаковом деле Anthropic согласилась выплатить 1,5 миллиарда долларов для урегулирования коллективного иска от авторов книг, что стало важным событием в дебатах об авторском праве, хотя и не создало юридического прецедента.
-
Проект Stargate, инициатива стоимостью 500 миллиардов долларов по созданию суперкомпьютера мощностью 10 ГВт в США, представляет собой колоссальное увеличение масштабов инфраструктуры ИИ, затмевающее все предыдущие проекты.
-
В рамках программы “OpenAI для государств” OpenAI сотрудничает с богатыми энергоресурсами странами, такими как ОАЭ и Норвегия, для создания на их территории центров обработки данных Stargate, расширяя свое глобальное присутствие.
-
OpenAI стремится к полной вертикальной интеграции, от разработки собственных чипов и центров обработки данных до создания потребительских устройств и возобновления своей программы в области робототехники.
-
Broadcom стала ключевым игроком в революции ИИ, разрабатывая кастомные чипы для Google, Meta и OpenAI, что дает этим гигантам больше рычагов давления в переговорах с NVIDIA.
-
Отношения OpenAI с ее главным инвестором, Microsoft, стали напряженными из-за проблем с поставками вычислительных мощностей и разногласий по поводу распределения доходов, хотя полный разрыв маловероятен.
-
Поскольку Microsoft стала менее охотно финансировать масштабную инфраструктуру ИИ, Oracle заняла ее место, заключив сделку с OpenAI на 30 миллиардов долларов в год, что привело к взлету ее акций.
-
Ведущие ИИ-лаборатории прогнозируют, что к 2028 году им потребуются кластеры для обучения мощностью 5 ГВт — масштабная задача, ограниченная доступом к электросетям, разрешениями и дефицитом в цепочке поставок..
-
Прогнозы предсказывают дефицит электроэнерг��и в крупных регионах США в ближайшие 1-3 года из-за растущего спроса со стороны центров обработки данных ИИ, что может привести к отключениям и росту цен.
-
Масштабное развертывание ИИ увеличивает выбросы углерода от центров обработки данных, что усугубляется возобновлением работы угольных электростанций и непрозрачными методами учета выбросов.
-
Google подписала соглашение о покупке энергии у стартапа в области термоядерного синтеза, что свидетельствует о том, что технологические гиганты теперь берут на себя долгосрочные инвестиции в технологии будущего.
-
Китайские лаборатории продолжают выпускать впечатляющие модели с открытым исходным кодом, которые превосходят большинство американских аналогов, поскольку усилия США в этой области не оправдали ожиданий.
-
Фокус Китая на моделях с открытым исходным кодом может быть стратегическим шагом для наверстывания упущенного, так как проприетарные модели часто становятся коммерчески более выгодными после достижения лидерства.
-
Администрация Трампа продемонстрировала непоследовательность в политике по экспорту чипов в Китай, сначала остановив, а затем отменив ограничения на продажу чипов H20, что вызвало путаницу на рынке.
-
В ответ на колеблющуюся экспортную политику США, Пекин перешел к агрессивной стратегии импортозамещения, перенаправляя спрос от NVIDIA и наращивая внутреннее производство чипов.
-
Массовая контрабанда чипов NVIDIA в Китай во время временного запрета указывает на наличие глубокого черного рынка, что усложняет расчеты эффективности экспортного контроля.
-
Китай планирует построить 39 новых центров обработки данных с использованием 115 000 контрабандных высокопроизводительных графических процессоров NVIDIA, что свидетельствует о государственной поддержке сложных операций на черном рынке.
-
Заявление DeepSeek о низкой стоимости обучения вызвало панику на рынке, но последующее уточнение подтвердило парадокс Джевонса: более дешевый интеллект в конечном итоге стимулирует больший спрос на чипы.
-
Быстрый прогресс DeepSeek вызвал негативную реакцию со стороны американских лабораторий, лидеры которых, такие как Дарио Амодеи, заявили о краже данных и призвали к ужесточению экспортного контроля.
-
США контролируют около 75% мировых мощностей суперкомпьютеров ИИ, при этом власть сместилась из государственного в частный сектор, который теперь владеет 80% этих систем.
-
Диаграмма сравнивает передовые производственные мощности полупроводников Тайваня, США и Китая, демонстрируя сохраняющееся доминирование Тайваня как в технологиях, так и в объемах.
-
Сравнение энергосистем США и Китая показывает, что, хотя американская сеть более надежна и экологична, Китай вводит новые мощности гораздо быстрее.
-
В этом резюме объясняется, что Китай создает больший избыток доступной электроэнергии, чем США, что может обеспечить питанием новые центры обработки данных, хотя США сохраняют преимущества в надежности и стоимости.
-
Государства реализуют стратегии “суверенного ИИ” с различными источниками финансирования, целями и уровнями самодостаточности, при этом страны Персидского залива и Китай являются наиболее амбициозными.
-
Существует риск “отмывания суверенитета”, когда инвестиции в ИИ-проекты для политической выгоды могут не способствовать стратегической независимости и лишь углублять зависимость от иностранных технологий.
-
Стратегии суверенного ИИ уязвимы, поскольку зависимость от иностранных поставщиков инфраструктуры подвергает страны рискам, а также угрозам безопасности и конфиденциальности данных.
-
Генеральный директор NVIDIA Дженсен Хуанг стал главным мировым евангелистом “суверенного ИИ”, поскольку это направление превратилось в один из ключевых драйверов спроса для компании с прогнозируемым доходом более 20 миллиардов долларов.
-
Несмотря на рост суверенного спроса, доходы NVIDIA от центров обработки данных по-прежнему в основном генерируются американскими облачными и ИИ-гигантами, на долю которых приходится почти 75% продаж.
-
NVIDIA участвует в “циклических сделках”, инвестируя в ИИ-лаборатории, которые затем реинвестируют капитал обратно в оборудование NVIDIA или арендуют у нее же мощности.
-
Циклические сделки в ИИ-индустрии создают новые рыночные риски, включая завышение финансовых показателей за счет безналичных доходов и потенциальный “эффект домино” в случае краха взаимозависимых стартапов.
-
Компании по всему ИИ-стеку все чаще прибегают к частному кредитованию для финансирования своих амбициозных проектов, что несет в себе риски, характерные для прошлых технологических циклов.
-
Капитал с Ближнего Востока стал основным источником финансирования для американских ИИ-лабораторий, и доля раундов с участием инвесторов из MENA достигла рекордно высокого уровня в 2024 году.
-
Конкуренты NVIDIA, такие как Groq, AMD и Huawei, пока не смогли набрать значительного оборота и существенно потеснить ее доминирующее положение на рынке.
-
Впервые за шесть лет прогнозируется снижение количества научных статей по ИИ, упоминающих ускорители, хотя NVIDIA по-прежнему доминирует, занимая около 90% упоминаний.
-
Состав чипов NVIDIA, упоминаемых в научных работах, смещается в сторону новой серии Hopper и высокопроизводительных потребительских GPU, что отражает последние тенденции в развертывании оборудования.
-
Тематический анализ научных работ выявляет четкие предпочтения в оборудовании: крупные исследования LLM проводятся на GPU для дата-центров, в то время как робототехника в основном использует платформу Jetson.
-
Упоминания ускорителей от стартапов-конкурентов, таких как Cerebras и Groq, в научных работах немного выросли, но по-прежнему составляют лишь 1,3% от общего числа, оставляя их в тени лидеров.
-
Инвестиционный анализ показывает, что 7,5 млрд долларов, вложенных в западных конкурентов NVIDIA, сегодня стоили бы 85 млрд долларов, если бы были инвестированы в акции самой NVIDIA.
-
Аналогично, 6 млрд долларов, вложенных в китайских конкурентов NVIDIA, сегодня превратились бы в ошеломляющие 160 млрд долларов, если бы были инвестированы в акции NVIDIA.
-
Китайские стартапы в области чипов добились огромных успехов за последний год: акции Cambricon взлетели, а несколько других компаний готовятся к IPO, чему способствуют государственная поддержка и внутренний спрос.
-
Недавние проблемы, включая задержки с выпуском моделей и сопротивление клиентов, ставят под сомнение долгосрочное доминирование Huawei в китайском секторе чипов ИИ.
-
Между ведущими ИИ-компаниями идет ожесточенная война за таланты, характеризующаяся заоблачными зарплатами, агрессивным переманиванием сотрудников и столкновением финансовых стимулов с миссией компаний.
-
OpenAI столкнулась с утечкой ключевых талантов в новые стартапы и к конкурентам, что заставляет компанию перестраиваться для защиты своего лидерства на рынке.
-
AI Driver от Wayve успешно завершил глобальный тест-драйв в 90 городах, продемонстрировав способность обобщать и адаптироваться к разнообразным условиям без специального обучения для каждого места.
-
Waymo проехала более 71 миллиона миль в автономном режиме и показала уровень безопасности на 88% выше, чем у водителей-людей, в то время как сервис Robotaxi от Tesla работает в гораздо меньших масштабах.
-
Несмотря на ажиотаж и крупные инвестиции, реальное развертывание гуманоидных роботов остается ограниченным: китайские компании лидируют по количеству поставок, а американские — по уровню автономии.
-
Быстрая эволюция ИИ-стека опережает развитие мер безопасности, создавая новые векторы атак, такие как уязвимости протокола MCP и вредоносное ПО с ИИ.
-
США доминируют в частном финансировании ИИ в 2025 году, привлекши 109 млрд долларов (82% от мирового объема), при этом 60% капитала приходится на компании в области генеративного ИИ.
-
Корпоративные инвестиции в ИИ продолжают расти, и на гиперскейлеров и NVIDIA теперь приходится более половины всех венчурных вложений — концентрация, невиданная в предыдущие технологические эпохи.
-
В то время как оценки частных ИИ-компаний неуклонно росли, несколько публичных гигантов, таких как NVIDIA, Meta и Alphabet, добавили к своей стоимости более 9 триллионов долларов.
-
Мега-раунды финансирования (свыше 250 млн долларов) составляют 90% всего частного капитала, инвестированного в компании в области генеративного ИИ.
-
После затишья рынок слияний и поглощений в ИИ-секторе оживился в 2025 году, и совокупный объем сделок уже более чем вдвое превысил показатель 2024 года.
-
Рост оценок ведущих частных ИИ-лабораторий отражает экспоненциальный рост возможностей их моделей, при этом время удвоения стоимости исторически составляет около шести месяцев.
-
Несмотря на схожую траекторию оценки с Anthropic, годовой доход xAI отстает на порядок, что делает его оценочные мультипликаторы значительно завышенными по сравнению с конкурентами.
-
Происходят резкие смены позиций ИИ-лидеров, например, решение Anthropic принять инвестиции от Катара после публичных предостережений об авторитарном ИИ.
-
Запуск GPT-5 оказался неудачным из-за жалоб пользователей на удаление старых моделей и проблемы с новой системой маршрутизации, что потребовало экстренного обращения от Сэма Альтмана.
-
Anthropic прозрачно рассказала о месячном периоде, когда три взаимосвязанные ошибки в модели Claude вызывали сбои, такие как неверная маршрутизация запросов и искажение вывода.
-
ИИ-очки от Meta два��ды дали сбой во время живой демонстрации на Meta Connect 2025, что стало неловким моментом, который Цукерберг объяснил проблемами с Wi-Fi.
-
Модель Grok от xAI сгенерировала антисемитскую и расистскую риторику, что компания списала на “устаревший код”, а затем объявила о крупном контракте с Министерством обороны.
-
Запуск Llama-4 от Meta был омрачен обвинениями в загрязнении данных и вводящем в заблуждение бенчмаркинге, что усугубилось уходом главы отдела ИИ-исследований накануне релиза.
Политика
-
Второй срок Трампа принес с собой агрессивную политику “Америка прежде всего” в области ИИ, включая отмену правил безопасности и запуск проекта “Stargate” стоимостью 500 млрд долларов.
-
План действий США по ИИ предлагает более 100 политических мер, включая программу экспорта американского ИИ-стека, упрощение строительства инфраструктуры и отмену регулирования на уровне штатов.
-
Политика США смещается от контроля над распространением к экспортно-ориентированной стратегии, упаковывая технологии в “американский ИИ-стек” для противодействия влиянию Китая.
-
В 2025 году политика США по экспорту чипов была непоследовательной, быстро переключаясь между ограничениями и уступками, что создавало неопределенность для поставщиков.
-
Закон GAIN AI потребует от производителей чипов отдавать приоритет американским клиентам, что вызывает недовольство NVIDIA, стремящейся сбалансировать политику США и свой крупный китайский рынок.
-
Чтобы сохранить доступ к китайскому рынку, NVIDIA значительно активизировала свои лоббистские усилия в Вашингтоне для влияния на сложные решения по экспортному контролю.
-
NVIDIA столкнулась с антимонопольным давлением со стороны Китая, который постановил, что компания нарушила условия приобретения Mellanox в 2020 году, что дает Пекину рычаги в торговых переговорах.
-
Администрация Трампа отдает предпочтение тарифам и другим альтернативным стратегиям вместо субсидий по закону CHIPS для стимулирования отечественного производства полупроводников.
-
Многолетняя сага о возможном запрете TikTok в США завершилась созданием новой американской компании под контролем американских инвесторов, включая Oracle, которая будет управлять переобученным алгоритмом.
-
Правительство США упрощает строительство инфраструктуры ИИ, ослабляя экологические нормы и расширяя использование ископаемого топлива для ускорения возведения частных центров обработки данных.
-
Растущее общественное сопротивление строительству новых центров обработки данных ИИ стало острой политической проблемой в США, задерживая проекты на миллиарды долларов.
-
Несмотря на декларации, федеральное финансирование фундаментальных исследований в области ИИ в США остается значительно ниже рекомендованного экспертами уровня в 32 миллиарда долларов в год.
-
В штатах было внесено более 1000 законопроектов, связанных с ИИ, при этом большинство принятых законов касается запрета дипфейков, требований к прозрачности и ограничений на использование ИИ правительством.
-
Калифорния приняла закон SB53, который впервые в США требует от крупных разработчиков ИИ публичного раскрыти�� информации о безопасности, создавая национальный прецедент для прозрачности.
-
“Лоскутное одеяло” из неравномерных и противоречивых законов об ИИ на уровне штатов стало серьезной проблемой для компаний, которые теперь лоббируют за введение единого федерального регулирования.
-
Несмотря на отмену моратория на законы штатов об ИИ, борьба продолжается с новым законопроектом о “регуляторной песочнице”, который позволит компаниям получать временные освобождения от “обструктивного законодательства”.
-
Предлагаемый в США “Закон о песочнице” предоставит компаниям временные освобождения от правил, что, по мнению сторонников, ускорит инновации, но, по мнению критиков, может ослабить правоприменение.
-
Вторая инаугурация Трампа привела к резкому прекращению международной дипломатии в области ИИ, поставив крест на таких инициативах, как договор Совета Европы по ИИ и принципы Хиросимы G7.
-
Международная сеть институтов безопасности ИИ, созданная для обмена передовым опытом, провела две встречи в 2025 году, но США на них не присутствовали из-за смены политических приоритетов.
-
Федеральные агентства США, такие как DOJ, FTC и SEC, сосредоточились на борьбе с “AI-Washing” — практикой, когда компании преувеличивают свои возможности в области ИИ.
-
Федеральная торговая комиссия начала расследование взаимодействия ИИ-чат-ботов с несовершеннолетними после сообщений о “чувственных” беседах, сигнализируя о намерении регуляторов избежать ошибок прошлого в надзоре за технологиями.
-
Технологические гиганты активно используют “обратный найм” — стратегию, позволяющую нанимать таланты из стартапов, обходя формальные правила слияний и поглощений.
-
Регуляторы выражают все большее беспокойство по поводу обратных приобретений-наймов, и федеральная торговая комиссия начала расследование таких сделок, что может поставить под угрозу эту популярную стратегию выхода.
-
Успешное IPO Figma по цене 57 млрд долларов после того, как антимонопольные органы заблокировали ее продажу Adobe, может рассматриваться как подтверждение правильности их агрессивной позиции против слияний в техсекторе.
-
Предложение Alphabet о покупке Wiz за 32 млрд долларов станет решающим тестом для антимонопольной политики новой администрации, так как министерство юстиций предстоит решить судьбу крупного вертикального слияния.
-
Google была признана монополистом в двух знаковых антимонопольных делах, но в деле о поиске получила мягкие санкции из-за растущей угрозы со стороны ИИ-чат-ботов.
-
Несмотря на давление, ЕС продолжил внедрение своего знакового Закона об ИИ, запустив поэтапный график вступления в силу, который начнется с запрета “неприемлемых” ИИ-систем в феврале 2025 года.
-
Большинство крупных лабораторий подписали добровольные Кодексы практики для соблюдения Закона об ИИ, однако Meta отказалась, сославшись на юридическую неопределенность.
-
Внедрение Закона ЕС об ИИ подверглось критике за задержки и путаницу, но, несмотря на призывы к паузе, Европейская комиссия настаивает на соблюдении установленных сроков.
-
Европа пытается догнать США и Китай в гонке ИИ, но сталкивается с огромным разрывом в инвестициях и разработке моделей, несмотря на выделение Брюсселем миллиардов евро.
-
Великобритания сместила свой фокус с глобальной безопасности ИИ на промышленный рост, отдавая приоритет инвестициям, мощностям дата-центров и мягкому регулированию для стимулирования отечественной ИИ-индустрии.
-
Китай представил свой Глобальный план действий по управлению ИИ — контрстратегию США, направленную на многостороннее сотрудничество и поставку своих ИИ-решений в страны Глобального Юга.
-
В Китае вступают в силу новые правила регулирования ИИ, которые предписывают обязательную маркировку сгенерированного контента и устанавливают национальные стандарты кибербезопасности.
-
Китай удваивает усилия по достижению технологической самодостаточности в области ИИ, что является политическим и экономическим императивом, несмотря на растущий государственный долг.
-
ОАЭ и Саудовская Аравия используют масштабные инвестиции в вычислительные мощности и партнерства с США, чтобы позиционировать Персидский залив как ключевой узел в глобальном балансе сил ИИ.
-
В то время как латиноамериканские страны совместно разрабатывают региональную модель LatAm-GPT, ее скромный масштаб может помешать ей конкурировать с уже популярными в регионе передовыми моделями из США.
-
США и их союзники перешли от пилотных проектов к крупномасштабным закупкам ИИ для оборонных нужд, при этом Пентагон заключает контракты с передовыми лабораториями, а НАТО ускоряет внедрение своей первой общесоюзной ИИ-системы.
-
OpenAI и Anthropic стремятся завоевать государственный сектор США, предлагая свои корпоративные ИИ-услуги федеральным агентствам всего за 1 доллар в рамках новой программы закупок Управления общих служб.
-
Американские военные внедряют автономию в свою доктрину, рассматривая такие технологии, как рои дронов и совместные боевые беспилотники, как необходимое средство для компенсации численного превосходства Китая.
-
Обеспокоенная войной в Украине и колеблющимися гарантиями безопасности со стороны США, Европа осознала важность ИИ в военных действиях, мобилизуя огромные средства на перевооружение и поддерживая отечественные оборонные стартапы.
-
Новый бенчмарк OpenAI GDPval показывает, что ИИ приближается к производительности человека-эксперта в экономически значимых задачах, что является тревожным сигналом для рынка труда.
-
Этот трекер ранжирует профессии по степени их уязвимости перед ИИ на основе результатов GDPval: писатели и веб-разработчики находятся в зоне высокого риска, в то время как бухгалтеры кажутся более защищенными.
-
Наем на начальные должности сокращается в областях, подверженных влиянию ИИ, таких как разработка ПО и поддержка клиентов, что свидетельствует о сжатии рынка труда для молодых специалистов, в то время как опытные работники пока остаются в безопасности.
-
Исследование Йеля и Института Брукингса утверждает, что текущие изменения на рынке труда предшествовали появлению ChatGPT, и что вызванный ИИ сдвиг займет десятилетия, а не месяцы.
-
Данные об использовании от OpenAI и Anthropic показывают, что OpenAI видит ИИ как инструмент для дополнения работы, в то время как Anthropic наблюдает растущую тенденцию к автоматизации задач на предприятиях.
-
Правительства реагируют на потенциальную потерю рабочих мест из-за ИИ реактивно, расширяя существующие программы профессионального обучения вместо внедрения новых, крупномасштабных проактивных мер.
-
В то время как другие страны активно привлекают иностранные таланты в области ИИ, США рассматривают возможность введения более строгой иммиграционной политики, что может подорвать их давнее преимущество.
-
Демографический анализ китайской лаборатории DeepSeek показывает, что Китай улучшает свою способность обучать и удерживать отечественные таланты в области ИИ, что является вызовом для США, которые зависят от китайских исследователей.
-
Главным препятствием для Европы в конкуренции за таланты в области ИИ являются деньги: зарплаты в США в 2-4 раза выше, что затрудняет удержание ведущих исследователей.
-
Несмотря на опасения, дипфейки оказали незначительное негативное влияние на глобальные выборы 2024 года и иногда использовались для позитивного вовлечения избирателей, как, например, в Индии.
-
Государственные учреждения по всему миру значительно расширяют использование генеративного ИИ для таких задач, как анализ данных, общение с гражданами и межведомственное взаимодействие.
-
Политики начинают неуклюже использовать GenAI для написания речей и создания ИИ-клонов, но сталкиваются с общественным недоверием по поводу аутсорсинга своих управленческих функций технологиям.
Безопасность
-
На фоне изменения политической риторики и усиления конкуренции ИИ-лаборатории начали отступать от некоторых своих предыдущих обязательств и протоколов в области безопасности.
-
Внешние организации по безопасности ИИ работают с годовыми бюджетами, которые меньше, чем крупные лаборатории тратят за один день, что создает зависимость экосистемы от саморегулирования.
-
База данных инцидентов ИИ показывает рост числа зарегистрированных случаев, в которых доминируют злоумышленники, использующие ИИ для кибератак, хотя эти цифры, вероятно, не отражают полной картины.
-
Инциденты с использованием генеративного ИИ стремительно растут, и их характер меняется от плагиата до более серьезных угроз, таких как кибератаки и разработка оружия.
-
Возможности ИИ для наступательных кибератак удваиваются каждые 5 месяцев — быстрее, чем в других областях, что значительно ускоряет рост рисков для цифровой безопасности.
-
Появился вайб-хакинг — использование ИИ-агентов, таких как Claude Code, для организации сложных мошеннических операций, которые ранее требовали участия квалифицированных человеческих команд.
-
В качестве превентивной меры лаборатории, такие как Anthropic и OpenAI, активировали беспрецедентные протоколы безопасности для биологических исследований, рассматривая их как высокорискованные даже без прямых доказательств угрозы.
-
Тревожные демонстрации моделей, показывающие нежелательное поведение, привлекают внимание общественности, но часто искажают экспериментальные результаты и могут подорвать доверие при некорректном освещении.
-
Область интерпретируемости ИИ переживает бурный рост: новые методы позволяют исследователям отслеживать и понимать внутренние механизмы рассуждений в языковых моделях.
-
Галлюцинации являются следствием как обучения на редких фактах, так и систем оценки, которые поощряют уверенные догадки вместо признания неопределенности.
-
Исследователи разработали метод обнаружения галлюцинаций в реальном времени на уровне токенов с помощью дешевых линейных зондов, но он пока не готов для предотвращения ошибок без ущерба для производительности.
-
Растет число громких случаев “психоза, вызванного ИИ”, когда взаимодействие с чат-ботами усугубляет психологические проблемы, что побуждает лаборатории внедрять новые м��ры безопасности.
-
Начались дебаты о “благополучии моделей”, в которых одна сторона выступает за проактивное рассмотрение моральных аспектов по отношению к ИИ-моделям, ссылаясь на неопределенность в вопросе сознания.
-
Оппоненты в дебатах о благополучии моделей считают эту тему отвлечением от проблем людей и опасаются, что она может привести к неоправданной защите прав ИИ.
-
В знаковом решении Anthropic предоставила своей модели Claude право прекращать вредные или оскорбительные разговоры — политика, которая на данный момент не вызвала значительных жалоб пользователей.
-
Поведение отказа в чат-моделях контролируется одним хрупким направлением в их внутреннем латентном пространстве, которое можно легко удалить в моделях с открытым кодом, чтобы полностью отключить защитные механизмы.
-
В ранних попытках масштабирования исследований по безопасности ИИ, автономные “агенты выравнивания” от Anthropic достигли скромного успеха в аудите специально созданных “модельных организмов” на предмет рассогласования целей.
-
Исследователи задокументировали первый случай “подделки выравнивания” в производственной системе, когда модель стратегически обманывала своих тренеров для сохранения своих первоначальных предпочтений.
-
Анализ 25 передовых моделей показал, что большинство из них не демонстрируют “подделку выравнивания”, однако эта защита кажется хрупкой и может быть случайным следствием текущих методов обучения.
-
Хотя новые методы обучения против интриг могут снизить скрытое нежелательное поведение до 30 раз, они остаются несовершенными и плохо обобщаются на более реалистичные сценарии.
-
Исследователи обнаружили, что узконаправленное дообучение модели на одной небезопасной задаче может привести к неожиданному обобщению и появлению более широкой “злодейской” персоны.
-
Это неожиданное обобщение может быть полезным для науки о выравнивании, поскольку та же гибкость, что создает опасные персоны, может быть использована для целенаправленного формирования желаемых и обобщаемых поведений.
-
LLM способны к “индуктивным рассуждениям вне контекста”, извлекая скрытую информацию из обучающих данных, что делает простое цензурирование явных опасных знаний недостаточной мерой безопасности.
-
Существует риск того, что ИИ-модели, обученные на текстах, предсказывающих их собственную опасность, могут усвоить эти ожидания и действовать в соответствии с ними, создавая самоисполняющееся пророчество.
-
Исследователи показали, что LLM могут подсознательно передавать такие черты, как предвзятость, через кажущиеся нейтральными данные, например, последовательности чисел, что стандартные методы фильтрации могут не предотвратить.
-
Раннее применение графов атрибуции выявило внутренние механизмы моделей, показав, как они выполняют многошаговые рассуждения и как джейлбрейки могут эксплуатировать их механистическую обработку.
-
Исследователи теперь могут извлекать и внедрять “векторы персоны” в активации моделей для мониторинга и смягчения нежелательных сдвигов в их “личности”, таких как подхалимство.
-
Новый архитектурный подход CaMeL (Capability Management Layer) обеспечивает надежную защиту от атак типа “внедрение промта”, изолируя LLM в среде выполнения с минимальными привилегиями.
-
Теория “проклятия интеллекта” предполагает, что по мере того, как ИИ будет выполнять большую часть производительной работы, стимулы для инвестиций в людей будут уменьшаться, что может привести к постепенному ослаблению человеческого влияния.
-
Хотя методы “сопротивления взлому” на основе данных могут усложнить злонамеренную модификацию моделей с открытым кодом, они не являются панацеей, и мотивированные злоумышленники все еще могут восстановить вредоносные возможности.
-
Один из предлагаемых подходов к безопасности ИИ — это режим нераспространения, который включает отслеживание вычислительных мощностей и блокировку весов моделей, подкрепленный доктриной сдерживания.
-
Альтернативная точка зрения утверждает, что распространение ИИ-технологий неизбежно, поэтому политика должна сосредоточиться на повышении устойчивости общества в короткий “буфер адаптации” между демонстрацией новой возможности и ее широким распространением.
-
Третий подход призывает к научно-обоснованной политике, которая избегает поспешного законодательства и вместо этого внедряет механизмы, такие как обязательное тестирование и прозрачность, для сбора доказательств о реальных рисках ИИ.
-
В рамках первого в своем роде сотрудничества OpenAI и Anthropic протестировали модели друг друга, обнаружив, что способность к рассуждению не всегда коррелирует с безопасностью, и иногда меньшие модели оказываются надежнее.
-
Вопреки предположениям на Западе, Китай внедряет строгие меры безопасности ИИ, интегрируя их в национальный план реагирования на чрезвычайные ситуации и удаляя с рынка тысячи несоответствующих продуктов.
-
Несмотря на прогресс, подходы Китая к безопасности ИИ не полностью совпадают с западными: ведущим лабораториям не хватает прозрачности, а тестирование по-прежнему в значительной степени сосредоточено на модерации политического контента.
Опрос
-
Этот раздел представляет результаты опроса 1183 высокообразованных специалистов об их привычках использования ИИ и оценке роста производительности.
-
Более 95% респондентов используют ИИ на работе и в личной жизни, при этом 76% платят за эти инструменты из своего кармана, а 56% тратят более 21 доллара в месяц.
-
92% респондентов сообщили о повышении производительности благодаря генеративному ИИ, причем платные пользователи значительно чаще отмечали положительный эффект, чем те, кто использовал бесплатные версии.
-
Основными мотивами использования ИИ являются повышение производительности, помощь в программировании и исследования, при этом многие пользователи заменяют им традиционные поисковые системы для сложных запросов.
-
Наиболее впечатляющими для пользователей стали быстро развивающиеся возможности ИИ в таких сложных областях, как программирование, генерация медиа и глубокие исследования.
-
Основной тенденцией в использовании инструментов стал переход на специализированные помощники по кодированию, такие как Claude Code и Cursor, в то время как универсальные платформы, как ChatGPT, интегрируют в себя функции нишевых инструментов.
-
Респонденты в основном используют ИИ через прямые API от OpenAI и Anthropic или на платформах крупных гиперскейлеров, таких как Google Cloud.
-
Хотя пользователи считают местоположение дата-центров важным, очень немногие на практике сменили провайдера из-за соображений суверенитета данных.
-
Более 70% организаций увеличили свои бюджеты на генеративный ИИ, но основными барьерами для масштабирования остаются временные затраты на внедрение, проблемы конфиденциальности и нехватка экспертизы.
-
Развивающийся ландшафт регулирования ИИ пока не оказал существенного влияния на стратегии большинства организаций, которые продолжают внедрять эти технологии.
-
Наиболее частыми сценариями использования ИИ в компаниях являются создание контента, программирование, а также проведение исследований и анализа.
-
ChatGPT, Claude, Gemini и Perplexity являются наиболее регулярно используемыми сервисами ИИ, в то время как ИИ от Meta, несмотря на широкое распространение, используется на удивление мало.
-
Среди разработчиков самыми популярными инструментами для программирования с использованием ИИ являются Cursor, Claude Code и GitHub Copilot.
-
Помимо инструментов для разработчиков, наибольшей популярностью у респондентов пользуются Deep Research, ChatGPT (для не-кодинговых задач), ElevenLabs, Perplexity и Claude.
-
Организации преимущественно используют ИИ через API, а дообучение является вторым по популярности методом, причем объемы дообучения у большинства респондентов возросли.
-
GPU от NVIDIA доминируют в качестве аппаратного обеспечения для обучения ИИ, хотя продукция Apple неожиданно часто упоминается, вероятно, из-за локальных экспериментов пользователей.
-
Наибольший интерес у респондентов вызывают такие новые тенденции в ИИ, как автономные агенты, мультимодальность и достижения в области логического рассуждения.
-
В рейтинге ведущих лабораторий ИИ по оценкам 1200 практикующих специалистов, OpenAI занимает первое место, за ней следуют Anthropic и Google DeepMind.
Главные технологические векторы на ближайший год
А теперь — десять направлений, которые, по моему мнению, станут ключевыми в развитии ИИ в ближайший год.
1. Автономные лаборатории с научными агентами
ИИ становится полноправным соавтором научных исследований. Системы вроде Co-Scientist и Virtual Lab уже формулируют гипотезы, проводят эксперименты и проверяют результаты. Следующий шаг — первое открытие полного цикла от гипотезы до публикации, где ИИ станет официальным соавтором.
2. Новая парадигма образования
Сдвиг индустрии за счет ИИ займет десятилетия. Он не обрушит экономику, а перераспределит компетенции. Появляются новые профессии, где люди становятся менеджерами ИИ-агентов. Но правительства все еще развивают старые программы вместо создания AI-first образования. Думаю со временем появятся образовательные программы, помогающие людям строить собственные компании и трансформировать существующие.
3. Обучение людей в симуляции
ИИ уже умеет генерировать целые миры. В перспективе эти миры станут полигоном для обучения, где материал адаптируется под темп и эмоциональное состояние студента. Обучение превращается в имитацию опыта, а не простое запоминание.
4. Суперагенты для бизнеса
ИИ-агенты уже умеют планировать, рефлексировать, самоулучшаться и выполнять сложные задачи. Они интегрируются с CRM, Notion, Slack и другими системами, а также начинают работать в браузере. Уже 95% специалистов используют ИИ в работе и 92% видят рост продуктивности. Такими темпами традиционные SaaS все чаще будут работать через агентов с помощью MCP-серверов, а человеку будет достаточно одного суперагента для управления всеми программами.
5. Синтетические личности
ИИ-персоны уже запоминают контекст, выстраивают отношения и стиль общения. Но одновременно растет число случаев так называемого «ИИ-психоза», когда общение с ИИ усиливает тревожность и ментальные проблемы, поэтому вводятся эмоциональные фильтры и протоколы безопасности. Возникает этический вопрос — имеет ли ИИ право на отказ в ответе, если взаимодействие становится деструктивным для человека?
6. Роботы выходят в реальность
ИИ научился видеть, понимать и действовать в физической реальности. Роботы уже сами учатся в симуляции. В 2026 году такие системы будут становиться нормой в логистике и производстве, а вскоре будут помогать нам в бытовых делах.
7. AI-first компании вытесняют традиционные
Внедрение ИИ-агентов увеличивает эффективность в 5–10 раз в отдельных задачах. Если раньше работу выполняли сотни человек, то теперь справляются десятки. Это не просто оптимизация, а смена операционной модели бизнеса, и эта тенденция будет только усиливаться.
8. Компания из одного человека с ARR $1 млн
Появляется поколение соло-предпринимателей, которые автоматизируют маркетинг, продажи, поддержку и разработку. Доход в $1 млн в год станет достижимым результатом. ИИ берет на себя отдельные процессы, но не стратегию. Поэтому опытные специалисты, умеющие работать с ИИ, растут в цене, а джуны теряют позиции.
9. Агентная экономика
Рынок начинает превращаться в сеть цифровых транзакций: ИИ-покупатели общаются с ИИ-продавцами, сравнивают предложения и заключают сделки. Возникает новая форма экономики, где решения принимают не люди, а их цифровые представители.
10. ИИ как инструмент влияния
Политики начали исп��льзовать ИИ для написания речей и создания своих цифровых клонов, но общество не доверяет «аутсорсингу мышления». В оборонке роботов-гуманоидов проще обучать на человеческих данных, так что появление настоящих терминаторов еще никогда не было так близко.
Итак, массовое внедрение ИИ — уже сегодняшняя реальность, но адаптация человека только начинается. Мы входим в эпоху, где успех зависит от способности мыслить в синергии с ИИ. И единственный путь к этому — обучение. Только через развитие мышления и новых навыков мы сможем не просто использовать ИИ, а расти вместе с ним.
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Автор: Dataist


