- BrainTools - https://www.braintools.ru -
После просмотра подкаста (Коняев – чума! [1]) я вроде понял, в чём минус ИИ, и провёл небольшое исследование этого вопроса. Ниже – обзорная статья, которая охватывает фундаментальные ограничения современных LLM через призму интерполяции и энтропии, технологические прорывы 2025 года, рыночную динамику ключевых игроков (Google, Broadcom, Intel), экономику вычислений и революционные перспективы развития ИИ.
Представьте себе ИИ как опытного клерка в огромной библиотеке. Он знает почти все книги наизусть, но никогда не напишет свою собственную. Почему? Давайте разберемся.
ИИ обучается на океане данных из интернета, книг и кода. По сути, он ищет самый вероятный путь между точками в многомерном пространстве. Это называется интерполяцией. В итоге получается, что ИИ работает внутри знакомого мира данных. Он усредняет весь человеческий опыт [2]. Попросите его написать стихотворение в стиле Пушкина – и он просто смешает существующие тексты. Ничего нового. Только гладкие, правдоподобные ответы. Получается интеллектуальный консерватизм.
Энтропия в термодинамике и теории информации – это мера беспорядка. В человеческом творчестве энтропия становится силой. Она позволяет создавать неожиданные, но ценные связи. Разработчики специально ограничивают “температуру” модели – случа��ность в ответах. Чтобы не получить полный бред. Модель держится ближе к самым вероятным словам. Вот почему ИИ избегает энтропии.
А вот человеческий фактор совсем другой. Гениальность [3] часто балансирует на грани хаоса. Настоящее открытие – это всегда выход за рамки обучающих данных. Экстраполяция, а не усреднение. Человек может придумать то, чего никогда не видел.
Интерполяция – безопасное движение по проторенным тропам. Она хороша для оптимизации, перевода, кодинга. Там где важна структура, а не новизна. Энтропия и экстраполяция – риск. ИИ не понимает реальный мир. Он не отличит гениальный бред от просто бреда.
Вывод простой: ИИ – заложник прошлого. Он всегда смотрит назад, чтобы ехать вперед. Стремится к порядку и вероятности. А живой разум растет из контролируемого хаоса. Из способности создавать смысл там, где статистика видит только пустоту. Поэтому ИИ сегодня – отличный помощник, но сомнительный творец. Он дает “лучшее среднее”. А нам иногда нужно “худшее, но уникальное”.
Индустрия сейчас переходит от простого угадывания слов к настоящему мышлению [4]. В 2025 году появились ключевые изменения, которые пытаются преодолеть эти ограничения.
Раньше ИИ умнел за счет роста данных при обучении [5]. Теперь акцент на вычисления во время ответа. В этом случае модели вроде OpenAI o1 используют “цепочку рассуждений”. Вместо мгновенного ответа ИИ “думает” перед тем, как ответить. Проверяет себя, исправляет ошибки [6]. Благодаря этому такие модели решают задачи, которых не было в обучающих данных. Через логический вывод, а не простое усреднение.
Стартап Liquid AI разрабатывает архитектуру, совсем не похожую на обычные трансформеры. Параметры жидких сетей меняются в реальном времени, а не как статичные модели после обучения. Такая гибкость позволяет им адаптироваться к изменениям среды. Это критично для робототехники и автономных систем. Летом 2025 года Liquid AI показали второе поколение – в разы эффективнее конкурентов.
В конце 2024 – начале 2025 случился бум ИИ-агентов. В отличие от простых чат-ботов, эти агенты – полноценные системы с инструментами, браузером и файлами. У них есть долгосрочные цели. Главное отличие в том, что при неудаче агенты пробуют разные пути. Они не повторяют [7] заученное. Это снижает зависимость от интерполяции, поскольку ориентируются на реальные результаты.
Современные модели уходят от чистого текста к видео и сенсорным данным. Цель в том, чтобы ИИ понимал не только статистику слов, но и причинно-следственные связи реального мира. Интуитивную физику. Это предотвращает галлюцинации чистой интерполяции. Итог: переход от “ИИ знает все” к “ИИ умеет думать и действовать”. Мы учим модели не просто помнить ответы, а искать их с нуля. Через логику [8]. Это попытка применить энтропию и выйти за рамки усреднения.
Аргумент о клиентской базе как ключе к победе Alphabet в 2025 году подтверждается. Но стратегия шире простого использования охвата.
Google использует свою базу для незаметного внедрения ИИ. Пользователям не нужно менять приложения. AI Overviews охватывает 1,5 миллиарда пользователей – более 50% поисковых запросов в 2025 году сопровождаются ИИ-ответами. Это самый массовый генеративный продукт в истории. А интеграция Gemini в Docs и Gmail держит корпоративных клиентов, создавая высокие барьеры для перехода к конкурентам.
Google на равных с OpenAI. Gemini 3 (ноябрь 2025) – лидер в мультимодальности. Обрабатывает видео, аудио, изображения с огромным контекстом до 1 миллиона токенов. Анализирует целые библиотеки кода или часы видео. К концу 2025 года модель часто опережает GPT-5.2 в генерации контента и работе с данными, хотя GPT-5 сохраняет лидерство [9] �� логическом рассуждении и программировании.
Google разрабатывает собственные TPU с 2015 года. Конкуренты зависят от Nvidia. Собственные TPU снижают себестоимость ответов и обеспечивают мощность для обучения следующего поколения моделей. В 2025 году Google направит около $75 млрд на капитальные затраты – большую часть на ИИ-инфраструктуру, конкурируя с Amazon и Microsoft.
Несмотря на лидерство, победа не абсолютна. OpenAI выпустила браузер в конце 2025 года для конкуренции с Chrome. Anthropic и новые игроки вроде DeepSeek забирают долю в глубоких исследованиях и кодинге. А правительство США остается главным риском через антимонопольные иски.
Итог: Google эффективно конвертирует базу в лидерство через инфраструктуру и интеграцию. К концу 2025 года сам стал силой, определяющей рынок.
Для производства TPU Google использует разделение труда. Сам проектирует архитектуру, доверяет детализацию и производство партнерам.
Главный партнер – Broadcom по специализированным ИИ-чипам (ASIC). В 2025 году помог с седьмым поколением TPU v7. Google – крупнейший заказчик, обеспечивает 80% продаж ИИ-ускорителей Broadcom. В марте 2025 года Google расширил партнеров, добавив MediaTek для модулей ввода-вывода новых чипов. Это снижает зависимость от Broadcom и сокращает расходы.
TSMC занимается изготовлением кристаллов. Современные TPU v6 и v7 производятся по 3 нм и 5 нм техпроцессам. В 2025 году TSMC увеличила мощности упаковки для проектов Google через MediaTek.
Итог: Google контролирует ди��айн и логику. Broadcom и MediaTek превращают чертежи в схемы. TSMC печатает на кремнии. Это сделало Google главным конкурентом Nvidia на рынке ASIC-ускорителей.
Акции Broadcom (AVGO) упали более чем на 12% за несколько дней в середине декабря 2025 года. Причина – финансовый отчет за четвертый квартал от 11 декабря.
Давление на маржинальность: Прогноз снижения валовой прибыли на 100 базисных пунктов в первом квартале 2026 года. ИИ-оборудование менее прибыльно, чем традиционное ПО.
“Недостаточный” объем заказов на ИИ: Портфель заказов $73 млрд. Но аналитики сочли это мало относительно ожиданий рынка.
Риски импортозамещения: Комментарии CEO Хока Тана о переходе клиентов на собственные чипы.
Общая ротация в секторе: Падение усилилось выходом из “перегретых” акций ИИ. Как Nvidia и AMD. Из-за слабых прогнозов Oracle и опасений окупаемости ИИ-инвестиций.
По данным аналитиков и отчетности 2025 года, Google – крупнейший клиент Broadcom в ИИ. Оценки HSBC показывают, что на долю заказов Google приходится 78% выручки в сегменте ASIC и 58% от общего объема поставок специализированных чипов. Выручка Broadcom от ИИ в 2025 году достигла $20 млрд (рост 65%), где большую часть составляют заказы Google и чипы шестого-седьмого поколений. Google – один из трех “гиперскейлеров” вместе с Meta и OpenAI. Высокая доля заказов от таких гигантов стала причиной падения акций в декабре, создавая риски снижения маржинальности и волатильность.
Итог: Google обеспечивает 20% всей выручки полупроводникового сегмента Broadcom. Критический партнер для 80% успеха ИИ-ускорителей.
В 2025 году перенос части производства чипов Google на Intel Foundry Services перешел из гипотез в обсуждения. К декабрю 2025 года вероятность подкрепляется факторами.
Google перевела мобильные процессоры на TSMC в 2025 году. Но TSMC перегружена Apple и Nvidia. Google диверсифицирует поставщиков для серверных TPU.
Google рассматривает технологию упаковки Intel EMIB для будущих ускорителей (TPU v9 к 2027 году). Альтернатива решению CoWoS от TSMC.
Intel запустила 18A в массовое производство в 2025 году – аналог 1.8 нм. Microsoft уже клиент. Аналитики прогнозируют, что Google последует. Intel предлагает заводы в США – снижение геополитических рисков и налоговые льготы.
Google работает через посредников. Broadcom для текущих TPU, MediaTek для будущих. Intel Foundry может предложить лучшие условия. Broadcom адаптирует дизайн под фабрики Intel.
Итог: Полного ухода от TSMC не будет. Вероятна гибридная модель к 2026-2027 годам:
Проектирование с Broadcom/MediaTek
Производство у TSMC
Упаковка или часть компонентов у Intel
Цель – снижение зависимости от одной фабрики в ИИ-гонке.
Переход от простой интерполяции к глубокому рассуждению вызвал рост спроса на вычисления в 2025 году. Это Inference Scaling Laws.
Раньше основная нагрузка – на обучение. Теперь – на инференс. Пример: Новые модели вроде OpenAI o1 и o3 тратят в десятки раз больше времени на ответ, чем GPT-4. Исследования декабря 2025 года: модели с рассуждением потребляют в 30 раз больше энергии на 1000 запросов. Дело в том, что чтобы победить энтропию и дать верный ответ, ИИ запускает тысячи внутренних циклов проверки. Это требует экспоненциально больше операций.
Скачок сделал главным ограничителем не алгоритмы, а физику. Энергопотребление к концу 2025 года удвоится до 23 ГВт – это как Нидерланды по выработке [10] углеводородной энергии. Гиганты планируют вложить более $1 трлн в инфраструктуру, включая ЦОД Stargate за $500 млрд.
Индустрия осознала: масштабирование “времени размышления” эффективнее для сложных задач (математика [11], кодинг, наука [12]), чем рост данных. Флагманы вроде o3-pro конца 2025 года думают над запросом минуты, используя ресурсы как целые кластеры прошлых лет.
Итог: Интеллект [13] ИИ пропорционален сожженному электричеству при размышлении. Энергоэффективность и дешевая энергия – ключ к победе.
Рост энергопотребления сделал “экономику токена” приоритетом в 2025 году. Волна оптимизации на всех уровнях.
Вместо универсальных GPU – чипы только для инференса. Компании вроде Groq показывают эффективность LPUs в десятки раз выше. Кастомные чипы Google (TPU v6/v7), Amazon (Trainium 3) и Microsoft (Maia 100) замещают Nvidia, снижая себестоимость запроса на 40-60%.
Прогресс идет через оптимизацию размышления, не размера. Спекулятивное декодирование позволяет маленькой модели набрасывать ответ, а большой – проверять его, снижая задержку и стоимость в разы. Дистилляция рассуждений дает флагманам обучать компактные модели имитировать логику для запуска “умных” функций на дешевом железе.
Массовое внедрение Blackwell (B200) в 2025 году – ответ на кризис. Энергоэффективность в 25 раз выше при инференсе. Сокращение операционных расходов в 10 раз при масштабе.
Квантование переводит модели на низкую точность (FP4/FP6 вместо FP16), делая их в 4 раза меньше по памяти [14] и в 2-3 раза быстрее. Агенты и маршрутизация направляют 80% рутинных задач на дешевые малые модели, оставляя дорогие вычисления только для сложных проблем.
ЦОДы строятся “power-first”: близость к дешевой энергии важнее, чем к потребителю. Некоторые гиганты инвестируют в малые модульные реакторы (SMR) для фиксации стоимости электричества.
Итог: Парадокс [15]. Суммарные требования растут, но стоимость “умного” токена упала в 280 раз за два года. Гонка между ростом сложности и удешевлением.
Революционные шаги затрагивают физику процесса или базовую математику. Отказ от архитектуры фон Неймана и обратного распространения.
Ожидаемый сдвиг: данные передаются фотонами вместо электронов.
Революция: Свет не имеет массы, почти не греется. Компании вроде Lightmatter поставляют интерконнекты для ЦОДов уже в 2025 году.
Эффект: Ускорение матричных вычислений в 100-1000 раз. Снижение энергопотребления на порядки. Обуздание энтропии без новых электростанций.
Современный ИИ работает циклично, постоянно потребляет энергию. В отличие от мозга, где нейрон [16] “вспыхивает” только при сигнале.
Революция: Переход к импульсным сетям, работающим по событию.
Эффект: Перенос мощного ИИ с дата-центров на устройства. ИИ уровня GPT-5 на батарее смартфона месяцами.
В 2024-2025 стартапы вроде FinalSpark дают облачный доступ к нейроплатформам из человеческих нейронов.
Революция: Биологические нейроны обрабатывают неопределенность эффективнее кремния в миллионы раз. Самообучаются без итераций.
Эффект: Системы с настоящей экстраполяцией. Решения за пределами обучающих данных.
Джеффри Хинтон предложил отказаться от метода обратного распространения для всех LLM.
Революция: Новые алгоритмы вроде Forward-Forward позволяют учиться в один проход. Как биологический мозг.
Эффект: Скорость обучения вырастет в разы. Требования к памяти упадут. ИИ станет адаптивным в реальном времени.
К концу 2025 года квантовые компьютеры IBM и Google достигли уровня интеграции в гибридные облака.
Революция: Кубиты идеальны для поиска глобального минимума в сложных пространствах вероятностей.
Эффект: Где классический ИИ интерполирует между точками, квантовый видит всю структуру мгновенно. Находит ответы, невозможные классически.
Итог: Если эволюция – быстрее и дешевле, революция – переход от вычисления интеллекта к его физическому воплощению. Перестать имитировать разум статистикой. Начать строить на принципах, близких к природе мышления.
UPD отредактировал пост в Cursor на Grok Code, устал объяснять Gemini 3 (хотя факты собирал через ИИ-чат в Google-поиске). А вайб-кодинг даётся Gemini 3 лучше всех, по моим ощущениям.
Автор: comerc
Источник [17]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/23262
URLs in this post:
[1] Коняев – чума!: https://www.youtube.com/watch?v=llnfc1Vehso
[2] опыт: http://www.braintools.ru/article/6952
[3] Гениальность: http://www.braintools.ru/article/4566
[4] мышлению: http://www.braintools.ru/thinking
[5] обучении: http://www.braintools.ru/article/5125
[6] ошибки: http://www.braintools.ru/article/4192
[7] повторяют: http://www.braintools.ru/article/4012
[8] логику: http://www.braintools.ru/article/7640
[9] лидерство: http://www.braintools.ru/article/1165
[10] выработке: http://www.braintools.ru/article/5568
[11] математика: http://www.braintools.ru/article/7620
[12] наука: http://www.braintools.ru/article/7634
[13] Интеллект: http://www.braintools.ru/article/7605
[14] памяти: http://www.braintools.ru/article/4140
[15] Парадокс: http://www.braintools.ru/article/8221
[16] нейрон: http://www.braintools.ru/article/9161
[17] Источник: https://habr.com/ru/articles/977474/?utm_source=habrahabr&utm_medium=rss&utm_campaign=977474
Нажмите здесь для печати.