- BrainTools - https://www.braintools.ru -
В последнее время из общего ИИ-пузыря выделилось несколько хайповых тем:
автономные ИИ-агенты и другие инструменты, которые якобы помогают человеку выполнять рутинные задачи и экономить время (это обман, на самом деле всё наоборот: загруженность человека с ИИ сильно возрастает [1] — увеличивается интенсивность труда, усталость, риски выгорания и требования к производительности [2]),
частные облака для «локального» инференса,
децентрализованный ИИ, который будет работать на компьютерах пользователей.
С агентами всё понятно, а вот частные облака и P2P-суперинтеллект можно рассмотреть внимательнее.
С самого начала коммерческой эксплуатации облачных ИИ-сервисов энтузиасты предпринимают попытки запустить эти модели локально, на своих серверах и ПК. К сожалению, самые последние передовые модели локализовать не получается, но остальные нормально работают. Все знают сайт Hugging Face [3], откуда можно скачать файлы обученных моделей, и графическую оболочку Ollama [4] для их запуска. Оболочка работает на опенсорсной библиотеке llama.cpp [5] от Георгия Герганова [6].

Её можно использовать и без GUI, просто в консоли:
# Использовать файл локальной модели
llama-cli -m my_model.gguf
# Или скачать и запустить модель напрямую с Hugging Face
llama-cli -hf ggml-org/gemma-3-1b-it-GGUF
# Запустить OpenAI-совместимый сервер API
llama-server -hf ggml-org/gemma-3-1b-it-GGUF
Разработчики llama.cpp считают [8], что сейчас локальный инференс «становится значимой и конкурентоспособной альтернативой облачному». Они говорят, что для будущей сверхмощной системы ИИ важно, чтобы она работала по распределённой модели на железе пользователей, а не в дата-центре коммерческой корпорации.
По их мнению, будущий Сверхинтеллект должен работать в P2P-сети и принадлежать всему человечеству.
Разумеется, корпорации с этим не согласны.
«Частные облака» от корпораций позиционируются как «приватная» альтернатива облачным ИИ-сервисам. То есть это якобы безопасный аналог локального ИИ, совершенно секретный, конфиденциальный и т. д. Альтернатива собственному серверу для клиентов, которые боятся работать с облачными сервисами из-за угрозы утечек данных.
В ноябре 2025 года Google запустила [9] «частное облако» Private AI Compute [10] с моделями семейства Gemini.
Облако Private AI Compute работает на едином технологическом стеке Google, включая собственные тензорные TPU-процессоры Trillium [11] и аппаратную технологию шифрования Trusted Execution Environment [12] (TEE) на CPU и TPU.
Коммуникации с фронтендом идут по зашифрованным каналам Noise [13] и ALTS [14] (Application Layer Transport Security), чтобы изолировать частное облако от остальной инфраструктуры Google. Клиент устанавливает соединение с фронтенд-сервером по криптопротоколу Noise. Впоследствии фронтенд-сервер устанавливает канал шифрования ALTS с другими службами и с серверами моделей, работающими на защищённой платформе TPU. Каждая рабочая нагрузка запрашивает и криптографически проверяет учётные данные другой стороны.
Теоретически, всё зашифровано и защищено. Главная цель этих наукоподобных «заклинаний» — убедить клиента отказаться от локального сервера в пользу частного облака.
Заявлено, что облако «обеспечивает высокий уровень приватности, сопоставимый с локальной обработкой данных». Новая система «построена на изолированном защищённом окружении, где все вычисления происходят в зашифрованном пространстве, доступ к которому имеет только пользователь». Даже сотрудники Google якобы не могут получить доступ к этим данным.
Первыми на платформе запустили ИИ-функции смартфонов Pixel 10 [15]: улучшатель промптов Magic Cue [16] и функцию обобщения транскрипций в приложении Recorder [17]. Эти задачи помогут протестировать сервис, который предлагается в аренду корпоративным клиентам. Кстати, на новом смартфоне Pixel 10 целая куча ИИ-функций, включая генератор картинок [18] и прочий нейрослоп:
Платформа Private AI Compute «открывает новые возможности для интеграции Gemini в различные продукты Google».
Все понимают, что приватность и Google — вещи не совместимые. Если на телефоне Android вы набрали какое-то слово в блокноте (заметках), телеграме или где-то ещё — скоро увидите контекстную рекламу и видеоролики на YouTube на эту тему. Судя по всему, информация сливается через клавиатуру Gboard [19] и другие каналы.
В 2024-2025 гг свои «приватные облака» запустили и другие корпорации: Private Cloud Compute [20] от Apple и Private Processing [21] от Meta (экстремистская организация, запрещённая в РФ). У них схожие цели по переносу нагрузок ИИ в облако, с внедрением криптографических и аппаратных средств защиты. Этот процесс отражает общую тенденцию в отрасли — запуск систем ИИ, которые якобы ориентируются на конфиденциальность.
Но всё это маркетинговая чушь. Даже сейчас в открытом доступе есть несколько научных статей с подробным описанием атак на TEE [22]. Плюс очевидный риск, что производитель TEE владеет ключами и всегда может поделиться этим доступом с третьими лицами.
Тем не менее, «приватное облако» остаётся привлекательным для многих заказчиков. На гитхабе есть открытый фреймворк OpenPCC [23] для тех, кто хочет поэкспериментировать с архитектурой приватного ИИ.
Компоненты OpenPCC:

Клиентские SDK для OpenPCC:
Python Client SDK [24]
Typescript и Javascript SDK [25]
Go Client SDK [26]
Системные компоненты OpenPCC:
AuthBank, Relay, Gateway, BlindBank, Router [26]
ComputeNode [27]
Кросс-компонентные библиотеки:
Binary HTTP (Go) [28]
Oblivious HTTP (Go) [29]
Two-way HPKE (Go) [30]
NVIDIA Trusted Compute (Go) [31]
При использовании сторонних коммерческих серверов о приватности речи не идёт. Все «частные облака» — просто попытка корпораций оторвать клиентов от локальных серверов. Задача — убедить, что здесь всё безопасно и приватно, как на своём сервере, при этом удобнее.
Но единственное безопасное «облако» — это свой собственный сервер.
Есть маленькая надежда, что будущий Сверхинтеллект не окажется под контролем корпораций, а будет развёрнут в нормальном открытом виде на распределённой сети частных компьютеров.
Например, стартап Prime Intellect [34] разработал модель распределённого интеллекта [35] INTELLECT-3 [36] на 106 млрд параметров (веса модели [37], обучающий фреймворк prime-rl [38], технический отчёт [39]). Особенность модели — поддержка распределённых вычислений, то есть она нормально работает и синхронизируется на кластере машин по типу Infrastructure-as-Code (управление через Ansible), с автоматическим обнаружением новых машин в кластере, с горячей заменой машин, и проверками InfiniBand для изоляции медленных или сбойных машин в кластере. Теоретически, такая система может непрерывно синхронизироваться через интернет. И тогда это будет стандартная модель распределённых вычислений, как классический SETI@Home [40].

Prime Intellect создала фреймворк, который позволяет любому создать среду обучения с подкреплением [41], настроенную для конкретной задачи. Генеральный директор компании Винсент Вайссер (Vincent Weisser) говорит [42], что это приведёт к созданию ценных новых программ, включая специализированных агентов. По его словам, мир ИИ в настоящее время разделён между теми, кто полагается на закрытые американские модели, и теми, кто использует открытые китайские разработки. Технология Prime Intellect демократизирует ИИ, позволяя большему количеству людей создавать и модифицировать передовой ИИ для себя.
Андрей Карпати назвал [43] среду обучения с подкреплением Prime Intellect «отличной работой [и] идеей». Он призвал исследователей открытого исходного кода использовать различные среды и адаптировать их к новым задачам, чтобы улучшить навыки передовых моделей новыми способами.


Версия BF16 запускается на двух H200, версия FP8 — на одном.
Свой гибрид «частного облака» и распределённых вычислений запустил даже Telegram, с поддержкой криптоплатежей. Проект Cocoon [44] (Confidential Compute Open Network, но в русской транскрипции его шуточно называют «Сосун») анонсировали [45] в ноябре 2025 года. По идее, это должна быть децентрализованная приватная сеть GPU-ускорителей, которую могут приватно арендовать любые клиенты и через API запрашивать выполнение необходимых вычислений, см. документацию для разработчиков [46].
Правда, старт получился не очень удачным. В январе 2026 года через месяц после запуска в онлайне было всего три пользователя, да и общая статистика не очень впечатляет:

Сама идея кажется правильной: будущий ИИ (возможно, Сверхинтеллект) должен работать в распределённой сети [47] на компьютерах пользователей. Здесь только реализация подкачала. Сейчас Cocoon запускается только на GPU-серверах с ускорителями H100+ [48] стоимостью около $30 тыс. [49], что никак не назовёшь массовым оборудованием.
Тем не менее, отрасль децентрализованных GPU-вычислений уже зародилась и бурно развивается [33]:

За последние два года ландшафт ИИ кардинально изменился. Meta открыла эпоху опенсорсных моделей, выпустив первую версию Llama в 2023 году. Следующим огромным прорывом стала недорогая и открытая модель рассуждений DeepSeek в январе 2025-го. Ещё несколько китайских моделей последовали её примеру. В ответ китайцам OpenAI впервые за несколько лет выпустила модель с открытым исходным кодом в августе 2025 года, но китайские Qwen от Alibaba, Kimi от Moonshot и R1 от DeepSeek оказались более популярными.
Сейчас в этой отрасли события развиваются так быстро, что даже год кажется вечностью. Только подумать, что Deepseek вышел всего год назад, а первая открытая модель Llama — два с половиной года назад. После этого всё и завертелось…
Конечно, помешанные на деньгах инвесторы и предприниматели надули знатный пузырь. С другой стороны, чем бы занимались айтишники в 2026 году, если бы не LLM? Это сейчас самая интересная технология, с которой можно поиграться…
© 2026 ООО «МТ ФИНАНС»
Автор: alizar
Источник [50]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26802
URLs in this post:
[1] загруженность человека с ИИ сильно возрастает: https://hbr.org/2026/02/ai-doesnt-reduce-work-it-intensifies-it
[2] требования к производительности: https://beabetterdev.com/2026/02/21/i-was-wrong-about-ai/#:~:text=The%20New%20Productivity%20Baseline
[3] Hugging Face: https://huggingface.co/
[4] Ollama: https://ollama.com/
[5] llama.cpp: https://github.com/ggml-org/llama.cpp
[6] Георгия Герганова: https://habr.com/ru/companies/ruvds/articles/923304/
[7] Image: https://sourcecraft.dev/
[8] считают: https://github.com/ggml-org/llama.cpp/discussions/19759
[9] запустила: https://blog.google/innovation-and-ai/products/google-private-ai-compute/
[10] Private AI Compute: https://services.google.com/fh/files/misc/private_ai_compute_technical_brief.pdf
[11] Trillium: https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus
[12] Trusted Execution Environment: https://en.wikipedia.org/wiki/Trusted_execution_environment
[13] Noise: https://noiseprotocol.org/
[14] ALTS: https://docs.cloud.google.com/docs/security/encryption-in-transit/application-layer-transport-security
[15] ИИ-функции смартфонов Pixel 10: https://store.google.com/intl/en/ideas/categories/ai/
[16] Magic Cue: https://store.google.com/intl/en/ideas/articles/magic-cue/
[17] Recorder: https://support.google.com/pixelphone/answer/16267698?hl=en
[18] генератор картинок: https://store.google.com/intl/en/ideas/articles/pixel-image-gen/
[19] Gboard: https://play.google.com/store/apps/details?id=com.google.android.inputmethod.latin&hl=en
[20] Private Cloud Compute: https://security.apple.com/blog/private-cloud-compute/
[21] Private Processing: https://engineering.fb.com/2025/04/29/security/whatsapp-private-processing-ai-tools/
[22] несколько научных статей с подробным описанием атак на TEE: https://www.sciencedirect.com/science/article/abs/pii/S0167404821002959
[23] OpenPCC: https://github.com/openpcc/openpcc/blob/main/README.md
[24] Python Client SDK: https://github.com/confidentsecurity/confsec-py
[25] Typescript и Javascript SDK: https://github.com/confidentsecurity/confsec-js
[26] Go Client SDK: https://github.com/openpcc/openpcc
[27] ComputeNode: https://github.com/confidentsecurity/confidentcompute
[28] Binary HTTP (Go): https://github.com/openpcc/bhttp
[29] Oblivious HTTP (Go): https://github.com/openpcc/ohttp
[30] Two-way HPKE (Go): https://github.com/openpcc/twoway
[31] NVIDIA Trusted Compute (Go): https://github.com/confidentsecurity/go-nvtrust
[32] Обучение: http://www.braintools.ru/article/5125
[33] источник: https://www.decentralised.co/p/decentralised-compute
[34] Prime Intellect: https://www.primeintellect.ai/
[35] интеллекта: http://www.braintools.ru/article/7605
[36] INTELLECT-3: https://www.primeintellect.ai/blog/intellect-3
[37] веса модели: https://huggingface.co/PrimeIntellect/INTELLECT-3
[38] prime-rl: https://github.com/PrimeIntellect-ai/prime-rl
[39] технический отчёт: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf
[40] SETI@Home: https://setiathome.berkeley.edu/
[41] подкреплением: http://www.braintools.ru/article/5528
[42] говорит: https://www.youtube.com/watch?v=6cQdJSzVTpg
[43] назвал: https://x.com/karpathy/status/1960803117689397543
[44] Cocoon: https://cocoon.org/
[45] анонсировали: https://t.me/durov/462
[46] документацию для разработчиков: https://cocoon.org/developers
[47] должен работать в распределённой сети: https://gonka.ai/whitepaper.pdf
[48] только на GPU-серверах с ускорителями H100+: https://cocoon.org/gpu-owners
[49] около $30 тыс.: https://www.asacomputers.com/nvidia-h100-80gb-nvh100tcgpu-gpu-card.html
[50] Источник: https://habr.com/ru/companies/ruvds/articles/1003992/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1003992
Нажмите здесь для печати.