- BrainTools - https://www.braintools.ru -

Децентрализованный ИИ и частные облака

В последнее время из общего ИИ-пузыря выделилось несколько хайповых тем:

  • автономные ИИ-агенты и другие инструменты, которые якобы помогают человеку выполнять рутинные задачи и экономить время (это обман, на самом деле всё наоборот: загруженность человека с ИИ сильно возрастает [1] — увеличивается интенсивность труда, усталость, риски выгорания и требования к производительности [2]),

  • частные облака для «локального» инференса,

  • децентрализованный ИИ, который будет работать на компьютерах пользователей.

С агентами всё понятно, а вот частные облака и P2P-суперинтеллект можно рассмотреть внимательнее.


Локальный ИИ против коммерческого

С самого начала коммерческой эксплуатации облачных ИИ-сервисов энтузиасты предпринимают попытки запустить эти модели локально, на своих серверах и ПК. К сожалению, самые последние передовые модели локализовать не получается, но остальные нормально работают. Все знают сайт Hugging Face [3], откуда можно скачать файлы обученных моделей, и графическую оболочку Ollama [4] для их запуска. Оболочка работает на опенсорсной библиотеке llama.cpp [5] от Георгия Герганова [6].

Децентрализованный ИИ и частные облака - 1

Её можно использовать и без GUI, просто в консоли:

# Использовать файл локальной модели
llama-cli -m my_model.gguf

# Или скачать и запустить модель напрямую с Hugging Face
llama-cli -hf ggml-org/gemma-3-1b-it-GGUF

# Запустить OpenAI-совместимый сервер API
llama-server -hf ggml-org/gemma-3-1b-it-GGUF
Децентрализованный ИИ и частные облака - 2 [7]

Разработчики llama.cpp считают [8], что сейчас локальный инференс «становится значимой и конкурентоспособной альтернативой облачному». Они говорят, что для будущей сверхмощной системы ИИ важно, чтобы она работала по распределённой модели на железе пользователей, а не в дата-центре коммерческой корпорации.

По их мнению, будущий Сверхинтеллект должен работать в P2P-сети и принадлежать всему человечеству.

Разумеется, корпорации с этим не согласны.

Частные облака: обещание приватности

«Частные облака» от корпораций позиционируются как «приватная» альтернатива облачным ИИ-сервисам. То есть это якобы безопасный аналог локального ИИ, совершенно секретный, конфиденциальный и т. д. Альтернатива собственному серверу для клиентов, которые боятся работать с облачными сервисами из-за угрозы утечек данных.

В ноябре 2025 года Google запустила [9] «частное облако» Private AI Compute [10] с моделями семейства Gemini.

Системная архитектура Private AI Compute, источник

Системная архитектура Private AI Compute, источник [10]

Облако Private AI Compute работает на едином технологическом стеке Google, включая собственные тензорные TPU-процессоры Trillium [11] и аппаратную технологию шифрования Trusted Execution Environment [12] (TEE) на CPU и TPU.

Коммуникации с фронтендом идут по зашифрованным каналам Noise [13] и ALTS [14] (Application Layer Transport Security), чтобы изолировать частное облако от остальной инфраструктуры Google. Клиент устанавливает соединение с фронтенд-сервером по криптопротоколу Noise. Впоследствии фронтенд-сервер устанавливает канал шифрования ALTS с другими службами и с серверами моделей, работающими на защищённой платформе TPU. Каждая рабочая нагрузка запрашивает и криптографически проверяет учётные данные другой стороны.

Теоретически, всё зашифровано и защищено. Главная цель этих наукоподобных «заклинаний» — убедить клиента отказаться от локального сервера в пользу частного облака.

Упрощённая диаграмма цепочки доверия Private AI Compute, источник

Упрощённая диаграмма цепочки доверия Private AI Compute, источник [10]

Заявлено, что облако «обеспечивает высокий уровень приватности, сопоставимый с локальной обработкой данных». Новая система «построена на изолированном защищённом окружении, где все вычисления происходят в зашифрованном пространстве, доступ к которому имеет только пользователь». Даже сотрудники Google якобы не могут получить доступ к этим данным.

Первыми на платформе запустили ИИ-функции смартфонов Pixel 10 [15]: улучшатель промптов Magic Cue [16] и функцию обобщения транскрипций в приложении Recorder [17]. Эти задачи помогут протестировать сервис, который предлагается в аренду корпоративным клиентам. Кстати, на новом смартфоне Pixel 10 целая куча ИИ-функций, включая генератор картинок [18] и прочий нейрослоп:

Платформа Private AI Compute «открывает новые возможности для интеграции Gemini в различные продукты Google».

Все понимают, что приватность и Google — вещи не совместимые. Если на телефоне Android вы набрали какое-то слово в блокноте (заметках), телеграме или где-то ещё — скоро увидите контекстную рекламу и видеоролики на YouTube на эту тему. Судя по всему, информация сливается через клавиатуру Gboard [19] и другие каналы.

В 2024-2025 гг свои «приватные облака» запустили и другие корпорации: Private Cloud Compute [20] от Apple и Private Processing [21] от Meta (экстремистская организация, запрещённая в РФ). У них схожие цели по переносу нагрузок ИИ в облако, с внедрением криптографических и аппаратных средств защиты. Этот процесс отражает общую тенденцию в отрасли — запуск систем ИИ, которые якобы ориентируются на конфиденциальность.

Но всё это маркетинговая чушь. Даже сейчас в открытом доступе есть несколько научных статей с подробным описанием атак на TEE [22]. Плюс очевидный риск, что производитель TEE владеет ключами и всегда может поделиться этим доступом с третьими лицами.

Тем не менее, «приватное облако» остаётся привлекательным для многих заказчиков. На гитхабе есть открытый фреймворк OpenPCC [23] для тех, кто хочет поэкспериментировать с архитектурой приватного ИИ.

Работа с LLM-провайдерами в частном облаке OpenPCC

Работа с LLM-провайдерами в частном облаке OpenPCC [23]

Компоненты OpenPCC:

Децентрализованный ИИ и частные облака - 6

При использовании сторонних коммерческих серверов о приватности речи не идёт. Все «частные облака» — просто попытка корпораций оторвать клиентов от локальных серверов. Задача — убедить, что здесь всё безопасно и приватно, как на своём сервере, при этом удобнее.

Но единственное безопасное «облако» — это свой собственный сервер.

Распределённый Интеллект

Есть маленькая надежда, что будущий Сверхинтеллект не окажется под контролем корпораций, а будет развёрнут в нормальном открытом виде на распределённой сети частных компьютеров.

Обучение модели INTELLECT-1 на 20 GPU-кластерах, распределённых по всему миру, источник

Обучение [32] модели INTELLECT-1 на 20 GPU-кластерах, распределённых по всему миру, источник [33]

Например, стартап Prime Intellect [34] разработал модель распределённого интеллекта [35] INTELLECT-3 [36] на 106 млрд параметров (веса модели [37], обучающий фреймворк prime-rl [38], технический отчёт [39]). Особенность модели — поддержка распределённых вычислений, то есть она нормально работает и синхронизируется на кластере машин по типу Infrastructure-as-Code (управление через Ansible), с автоматическим обнаружением новых машин в кластере, с горячей заменой машин, и проверками InfiniBand для изоляции медленных или сбойных машин в кластере. Теоретически, такая система может непрерывно синхронизироваться через интернет. И тогда это будет стандартная модель распределённых вычислений, как классический SETI@Home [40].

Децентрализованный ИИ и частные облака - 8

Prime Intellect создала фреймворк, который позволяет любому создать среду обучения с подкреплением [41], настроенную для конкретной задачи. Генеральный директор компании Винсент Вайссер (Vincent Weisser) говорит [42], что это приведёт к созданию ценных новых программ, включая специализированных агентов. По его словам, мир ИИ в настоящее время разделён между теми, кто полагается на закрытые американские модели, и теми, кто использует открытые китайские разработки. Технология Prime Intellect демократизирует ИИ, позволяя большему количеству людей создавать и модифицировать передовой ИИ для себя.

Непрерывная пакетная обработка (с постоянной нагрузкой на инференс) и обновление весов на лету в INTELLECT-3. После каждого деплоя (rollout) немедленно приходят запросы на новые роллауты. Политики для генерации деплоев обновляется на лету, как только они становятся доступной, то есть каждый роллаут может генерироваться несколькими политиками

Непрерывная пакетная обработка (с постоянной нагрузкой на инференс) и обновление весов на лету в INTELLECT-3. После каждого деплоя (rollout) немедленно приходят запросы на новые роллауты. Политики для генерации деплоев обновляется на лету, как только они становятся доступной, то есть каждый роллаут может генерироваться несколькими политиками

Андрей Карпати назвал [43] среду обучения с подкреплением Prime Intellect «отличной работой [и] идеей». Он призвал исследователей открытого исходного кода использовать различные среды и адаптировать их к новым задачам, чтобы улучшить навыки передовых моделей новыми способами.

Децентрализованный ИИ и частные облака - 10
Децентрализованный ИИ и частные облака - 11

Версия BF16 запускается на двух H200, версия FP8 — на одном.

Cocoon

Свой гибрид «частного облака» и распределённых вычислений запустил даже Telegram, с поддержкой криптоплатежей. Проект Cocoon [44] (Confidential Compute Open Network, но в русской транскрипции его шуточно называют «Сосун») анонсировали [45] в ноябре 2025 года. По идее, это должна быть децентрализованная приватная сеть GPU-ускорителей, которую могут приватно арендовать любые клиенты и через API запрашивать выполнение необходимых вычислений, см. документацию для разработчиков [46].

Правда, старт получился не очень удачным. В январе 2026 года через месяц после запуска в онлайне было всего три пользователя, да и общая статистика не очень впечатляет:

Децентрализованный ИИ и частные облака - 12

Сама идея кажется правильной: будущий ИИ (возможно, Сверхинтеллект) должен работать в распределённой сети [47] на компьютерах пользователей. Здесь только реализация подкачала. Сейчас Cocoon запускается только на GPU-серверах с ускорителями H100+ [48] стоимостью около $30 тыс. [49], что никак не назовёшь массовым оборудованием.

Тем не менее, отрасль децентрализованных GPU-вычислений уже зародилась и бурно развивается [33]:

Децентрализованный ИИ и частные облака - 13

За последние два года ландшафт ИИ кардинально изменился. Meta открыла эпоху опенсорсных моделей, выпустив первую версию Llama в 2023 году. Следующим огромным прорывом стала недорогая и открытая модель рассуждений DeepSeek в январе 2025-го. Ещё несколько китайских моделей последовали её примеру. В ответ китайцам OpenAI впервые за несколько лет выпустила модель с открытым исходным кодом в августе 2025 года, но китайские Qwen от Alibaba, Kimi от Moonshot и R1 от DeepSeek оказались более популярными.

Сейчас в этой отрасли события развиваются так быстро, что даже год кажется вечностью. Только подумать, что Deepseek вышел всего год назад, а первая открытая модель Llama — два с половиной года назад. После этого всё и завертелось…

Конечно, помешанные на деньгах инвесторы и предприниматели надули знатный пузырь. С другой стороны, чем бы занимались айтишники в 2026 году, если бы не LLM? Это сейчас самая интересная технология, с которой можно поиграться…

© 2026 ООО «МТ ФИНАНС»

Автор: alizar

Источник [50]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/26802

URLs in this post:

[1] загруженность человека с ИИ сильно возрастает: https://hbr.org/2026/02/ai-doesnt-reduce-work-it-intensifies-it

[2] требования к производительности: https://beabetterdev.com/2026/02/21/i-was-wrong-about-ai/#:~:text=The%20New%20Productivity%20Baseline

[3] Hugging Face: https://huggingface.co/

[4] Ollama: https://ollama.com/

[5] llama.cpp: https://github.com/ggml-org/llama.cpp

[6] Георгия Герганова: https://habr.com/ru/companies/ruvds/articles/923304/

[7] Image: https://sourcecraft.dev/

[8] считают: https://github.com/ggml-org/llama.cpp/discussions/19759

[9] запустила: https://blog.google/innovation-and-ai/products/google-private-ai-compute/

[10] Private AI Compute: https://services.google.com/fh/files/misc/private_ai_compute_technical_brief.pdf

[11] Trillium: https://cloud.google.com/blog/products/compute/introducing-trillium-6th-gen-tpus

[12] Trusted Execution Environment: https://en.wikipedia.org/wiki/Trusted_execution_environment

[13] Noise: https://noiseprotocol.org/

[14] ALTS: https://docs.cloud.google.com/docs/security/encryption-in-transit/application-layer-transport-security

[15] ИИ-функции смартфонов Pixel 10: https://store.google.com/intl/en/ideas/categories/ai/

[16] Magic Cue: https://store.google.com/intl/en/ideas/articles/magic-cue/

[17] Recorder: https://support.google.com/pixelphone/answer/16267698?hl=en

[18] генератор картинок: https://store.google.com/intl/en/ideas/articles/pixel-image-gen/

[19] Gboard: https://play.google.com/store/apps/details?id=com.google.android.inputmethod.latin&hl=en

[20] Private Cloud Compute: https://security.apple.com/blog/private-cloud-compute/

[21] Private Processing: https://engineering.fb.com/2025/04/29/security/whatsapp-private-processing-ai-tools/

[22] несколько научных статей с подробным описанием атак на TEE: https://www.sciencedirect.com/science/article/abs/pii/S0167404821002959

[23] OpenPCC: https://github.com/openpcc/openpcc/blob/main/README.md

[24] Python Client SDK: https://github.com/confidentsecurity/confsec-py

[25] Typescript и Javascript SDK: https://github.com/confidentsecurity/confsec-js

[26] Go Client SDK: https://github.com/openpcc/openpcc

[27] ComputeNode: https://github.com/confidentsecurity/confidentcompute

[28] Binary HTTP (Go): https://github.com/openpcc/bhttp

[29] Oblivious HTTP (Go): https://github.com/openpcc/ohttp

[30] Two-way HPKE (Go): https://github.com/openpcc/twoway

[31] NVIDIA Trusted Compute (Go): https://github.com/confidentsecurity/go-nvtrust

[32] Обучение: http://www.braintools.ru/article/5125

[33] источник: https://www.decentralised.co/p/decentralised-compute

[34] Prime Intellect: https://www.primeintellect.ai/

[35] интеллекта: http://www.braintools.ru/article/7605

[36] INTELLECT-3: https://www.primeintellect.ai/blog/intellect-3

[37] веса модели: https://huggingface.co/PrimeIntellect/INTELLECT-3

[38] prime-rl: https://github.com/PrimeIntellect-ai/prime-rl

[39] технический отчёт: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf

[40] SETI@Home: https://setiathome.berkeley.edu/

[41] подкреплением: http://www.braintools.ru/article/5528

[42] говорит: https://www.youtube.com/watch?v=6cQdJSzVTpg

[43] назвал: https://x.com/karpathy/status/1960803117689397543

[44] Cocoon: https://cocoon.org/

[45] анонсировали: https://t.me/durov/462

[46] документацию для разработчиков: https://cocoon.org/developers

[47] должен работать в распределённой сети: https://gonka.ai/whitepaper.pdf

[48] только на GPU-серверах с ускорителями H100+: https://cocoon.org/gpu-owners

[49] около $30 тыс.: https://www.asacomputers.com/nvidia-h100-80gb-nvh100tcgpu-gpu-card.html

[50] Источник: https://habr.com/ru/companies/ruvds/articles/1003992/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1003992

www.BrainTools.ru

Rambler's Top100