- BrainTools - https://www.braintools.ru -
Фаундер Airbnb предсказывает движение к реальному в эпоху искусственного. Техническая реализация — вот где главная проблема сейчас.
В ноябре Брайан Чески выступил [1] с тезисом, который недавно привлёк внимание [2]: его назвали одним из самых прозорливых визионеров Кремниевой долины.

Брайан сделал годную провокацию: мол, спустя три года после взлёта ChatGPT 3.5 мы всё ещё не видим реального и существенного приложения этих технологий к решению проблем: «Люди всё так же залипают в телефоны, только вместо Google идут в ChatGPT». В топ-50 App Store первые три места — Sora, ChatGPT и Gemini, а остальные 47 — это те же приложения, что были до появления AI.
Метафора Чески:
«Интеллект — это золото. Enterprise-стартапы — компании по продаже кирок и лопат. Но что мы делаем с золотом? Мы изобрели реактивный двигатель и приделали его к машине. Нужно изобрести самолёт».
Ну, допустим, можно перевернуть этот тезис так: настоящее золото, прорыв будущего лежит уже не среди топовых AI-лабораторий, а среди реального бизнеса, эффективность или продукт которого перевернутся с ног на голову из-за AI. И надо смотреть туда, в «остальные 47» сервисов из топ-50 — кто из них будет успешно дизраптить свой бизнес с AI, или кто-то придёт и задизраптит их, скинет с Олимпа.
Но вот ещё одна интересная (хотя и неоригинальная) мысль Брайана:
«Важное слово в AI — это “искусственное”. После Sora ты не можешь знать наверняка, реально ли то, что видишь на экране. В будущем всё на экране — искусственное или может быть искусственным».
Отсюда стратегия: «Противоположность искусственного — реальное. Противоположность экрана — реальный мир».
Его прогноз: цифровой мир станет всё более искусственным и иммерсивным, но физический мир останется физическим. Роботы заменят множество работ, но людям по-прежнему будет нужна связь с другими людьми.
«Ваши фолловеры не придут на ваши похороны. Никто не изменил чужое мнение в секции YouTube-комментариев. Скоро ваши друзья будут AI. Поэтому должно быть движение к реальному».
Визионерство Брайана работает на уровне прогноза спроса: людям действительно захочется качнуться к реальности, когда контент вокруг не даёт объективного представления о происходящем.
Но как это реализовать технически? Вот что мы видели до сих пор:
Верификация аккаунтов недостаточна — в человеческих аккаунтах можно размещать AI-контент. Даже если ты сделаешь верификацию по паспорту владельцев аккаунта, это не защищает от размещения в их аккаунтах AI-слопа или дезы
Вотермарки подделываются или удаляются. Ленты забиты видосами из Sora и картинками Nano Banana с удалёнными маркерами ИИ-контента
Центры проверки фактов обманываются, игнорируются, при больших объёмах задач не справляются с обработкой. С ними экспериментировали и Цукерберг, и прошлая администрация Twitter — они скорее нужны для прикрытия, а не для решения проблемы
Спрос на реальное увеличится. Но хороший вопрос не всегда имеет хороший ответ. Верифицировать реальность контента так, чтобы систему нельзя было обойти — пока что не решённая задача.
У фаундера OpenAI Сэма Альтмана и фаундера Tools for Humanity Алекса Блании есть совместный проект World [3] (ранее Worldcoin). Его заявленная миссия — обеспечить процветание людей в эпоху, когда ИИ-ботов вокруг становится всё больше: создатели утверждают, что к некоторым сервисам доступ стоит давать только для живых людей — финансовым приложениям, трейдинг-платформам, социальным сетям, дейтингу и видеоиграм.
В основе World лежит биометрия как способ идентифицировать конкретного человека и безопасно связать его с цифровыми аккаунтами. Насколько можно судить, на базе этих технологий небольшая команда вокруг этого проекта работает [4] (как минимум с апреля 2025) над созданием социальной сети для живых людей, где верификация будет через биометрию в специальных сферических устройствах Orb, раскиданных по миру. Массовые сервисы так до сих пор не делали, полагаясь на электронные почты или телефонные номера.
Но интерес [5] тут не только в соцсетях и предсказаниях, будет ли запуск успешным и востребованным, но и в способе контролировать то, что постит человек — а не только верифицировать реальность его личности.
В версии протокола World ID 3.0 была [6] представлена функция Deep Face. Она нацелена на решение проблемы дипфейков в реальном времени (например, в видеозвонках).
Система сравнивает видеопоток с вашими биометрическими данными, подтвержденными ранее через Orb — станцию регистрации, которую нельзя подделать. Если кто-то пытается выдать себя за вас в FaceTime или Zoom, используя ИИ-фильтр, система увидит несоответствие «цифровой подписи» лица и заблокирует авторизацию.
Что касается обычных видео и постов, подход архитекторов World (и Сэма Альтмана в частности) заключается не в том, чтобы «угадывать», сгенерировано ли видео (это невозможно, и все сервисы-«детекторы AI» — полная херня), а в том, чтобы криптографически подтверждать источник данных.
Ответственность на авторе: если видео опубликовано аккаунтом с World ID, это значит, что за него отвечает конкретный живой человек. Если он публикует фейк, его репутация (и доступ к сервисам) может быть аннулирована
Верификация съёмки: World продвигает идею интеграции с аппаратным обеспечением камер. В будущем камера смартфона может «подписывать» файл в момент съемки ключом, привязанным к вашему World ID. Это создает метаданные (по стандарту C2PA), которые подтверждают: «Это видео было снято физической линзой в такое-то время, а не сгенерировано нейросетью»
Сделаем несколько допущений, чтобы телепортироваться в будущее: допустим, Альтману удалось создать востребованную соцсеть. Допустим, другие продукты, заваленные AI-ботами и нейрослопом, оказались покинутыми реальными людьми. Допустим, что новые методы верификации оказались действенными и прошли государственную регуляцию, в том числе приняли регуляции ответственности авторов контента за его оригинальность.
И вот мы в мире, где для победы над AI-контентом введена и легализована персональная ответственность авторов контента, а чтобы получить внимание других живых людей, нужно сидеть под аккаунтом, который привязан к твоей биометрии.
И если ты запостишь что-то, что в картине мира Сэма Альтмана, его компаний и государственного аппарата будет воспринято как дезинформация или введенеи в заблуждений, то твой социальный рейтинг упадёт. Сначала ты лишишься доступа к постингу в эту соцсеть или каких-то бенефитов ChatGPT, а потом у тебя вырастет процент по ипотеке.
Норм?
Такие посты чаще выходят у меня в Telegram-канале [7], где в основном пишу про AI и его применение. Что? Сам раскрыл этот спойлер.
Автор: Niketas
Источник [8]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/25070
URLs in this post:
[1] выступил: https://www.youtube.com/watch?v=jo4Ze2c_hAY
[2] внимание: http://www.braintools.ru/article/7595
[3] World: https://world.org/
[4] работает: https://www.forbes.com/sites/annatong/2026/01/28/openai-wants-to-create-biometric-social-network-to-kill-xs-bot-problem/
[5] интерес: http://www.braintools.ru/article/4220
[6] была: https://world.org/blog/announcements/introducing-world-id-3-new-credentials-more-privacy-deep-fake-prevention
[7] у меня в Telegram-канале: https://t.me/+ruJuIsUOKKplZWQy
[8] Источник: https://habr.com/ru/articles/991834/?utm_source=habrahabr&utm_medium=rss&utm_campaign=991834
Нажмите здесь для печати.