- BrainTools - https://www.braintools.ru -

Брайан Чески про спрос на реальное и нерешённую проблему верификации

Фаундер Airbnb предсказывает движение к реальному в эпоху искусственного. Техническая реализация — вот где главная проблема сейчас.

В ноябре Брайан Чески выступил [1] с тезисом, который недавно привлёк внимание [2]: его назвали одним из самых прозорливых визионеров Кремниевой долины.

Брайан Чески про спрос на реальное и нерешённую проблему верификации - 1

Брайан сделал годную провокацию: мол, спустя три года после взлёта ChatGPT 3.5 мы всё ещё не видим реального и существенного приложения этих технологий к решению проблем: «Люди всё так же залипают в телефоны, только вместо Google идут в ChatGPT». В топ-50 App Store первые три места — Sora, ChatGPT и Gemini, а остальные 47 — это те же приложения, что были до появления AI.

Метафора Чески:

«Интеллект — это золото. Enterprise-стартапы — компании по продаже кирок и лопат. Но что мы делаем с золотом? Мы изобрели реактивный двигатель и приделали его к машине. Нужно изобрести самолёт».

Ну, допустим, можно перевернуть этот тезис так: настоящее золото, прорыв будущего лежит уже не среди топовых AI-лабораторий, а среди реального бизнеса, эффективность или продукт которого перевернутся с ног на голову из-за AI. И надо смотреть туда, в «остальные 47» сервисов из топ-50 — кто из них будет успешно дизраптить свой бизнес с AI, или кто-то придёт и задизраптит их, скинет с Олимпа.

Но вот ещё одна интересная (хотя и неоригинальная) мысль Брайана:

«Важное слово в AI — это “искусственное”. После Sora ты не можешь знать наверняка, реально ли то, что видишь на экране. В будущем всё на экране — искусственное или может быть искусственным».

Отсюда стратегия: «Противоположность искусственного — реальное. Противоположность экрана — реальный мир».

Его прогноз: цифровой мир станет всё более искусственным и иммерсивным, но физический мир останется физическим. Роботы заменят множество работ, но людям по-прежнему будет нужна связь с другими людьми.

«Ваши фолловеры не придут на ваши похороны. Никто не изменил чужое мнение в секции YouTube-комментариев. Скоро ваши друзья будут AI. Поэтому должно быть движение к реальному».

Проблема без решения

Визионерство Брайана работает на уровне прогноза спроса: людям действительно захочется качнуться к реальности, когда контент вокруг не даёт объективного представления о происходящем.

Но как это реализовать технически? Вот что мы видели до сих пор:

  1. Верификация аккаунтов недостаточна — в человеческих аккаунтах можно размещать AI-контент. Даже если ты сделаешь верификацию по паспорту владельцев аккаунта, это не защищает от размещения в их аккаунтах AI-слопа или дезы

  2. Вотермарки подделываются или удаляются. Ленты забиты видосами из Sora и картинками Nano Banana с удалёнными маркерами ИИ-контента

  3. Центры проверки фактов обманываются, игнорируются, при больших объёмах задач не справляются с обработкой. С ними экспериментировали и Цукерберг, и прошлая администрация Twitter — они скорее нужны для прикрытия, а не для решения проблемы

Спрос на реальное увеличится. Но хороший вопрос не всегда имеет хороший ответ. Верифицировать реальность контента так, чтобы систему нельзя было обойти — пока что не решённая задача.

Криптография и персональная ответственность: подход World

У фаундера OpenAI Сэма Альтмана и фаундера Tools for Humanity Алекса Блании есть совместный проект World [3] (ранее Worldcoin). Его заявленная миссия — обеспечить процветание людей в эпоху, когда ИИ-ботов вокруг становится всё больше: создатели утверждают, что к некоторым сервисам доступ стоит давать только для живых людей — финансовым приложениям, трейдинг-платформам, социальным сетям, дейтингу и видеоиграм.

World Orb

World Orb

В основе World лежит биометрия как способ идентифицировать конкретного человека и безопасно связать его с цифровыми аккаунтами. Насколько можно судить, на базе этих технологий небольшая команда вокруг этого проекта работает [4] (как минимум с апреля 2025) над созданием социальной сети для живых людей, где верификация будет через биометрию в специальных сферических устройствах Orb, раскиданных по миру. Массовые сервисы так до сих пор не делали, полагаясь на электронные почты или телефонные номера.

Но интерес [5] тут не только в соцсетях и предсказаниях, будет ли запуск успешным и востребованным, но и в способе контролировать то, что постит человек — а не только верифицировать реальность его личности.

В версии протокола World ID 3.0 была [6] представлена функция Deep Face. Она нацелена на решение проблемы дипфейков в реальном времени (например, в видеозвонках).

Система сравнивает видеопоток с вашими биометрическими данными, подтвержденными ранее через Orb — станцию регистрации, которую нельзя подделать. Если кто-то пытается выдать себя за вас в FaceTime или Zoom, используя ИИ-фильтр, система увидит несоответствие «цифровой подписи» лица и заблокирует авторизацию.

Что касается обычных видео и постов, подход архитекторов World (и Сэма Альтмана в частности) заключается не в том, чтобы «угадывать», сгенерировано ли видео (это невозможно, и все сервисы-«детекторы AI» — полная херня), а в том, чтобы криптографически подтверждать источник данных.

  1. Ответственность на авторе: если видео опубликовано аккаунтом с World ID, это значит, что за него отвечает конкретный живой человек. Если он публикует фейк, его репутация (и доступ к сервисам) может быть аннулирована

  2. Верификация съёмки: World продвигает идею интеграции с аппаратным обеспечением камер. В будущем камера смартфона может «подписывать» файл в момент съемки ключом, привязанным к вашему World ID. Это создает метаданные (по стандарту C2PA), которые подтверждают: «Это видео было снято физической линзой в такое-то время, а не сгенерировано нейросетью»

Сделаем несколько допущений, чтобы телепортироваться в будущее: допустим, Альтману удалось создать востребованную соцсеть. Допустим, другие продукты, заваленные AI-ботами и нейрослопом, оказались покинутыми реальными людьми. Допустим, что новые методы верификации оказались действенными и прошли государственную регуляцию, в том числе приняли регуляции ответственности авторов контента за его оригинальность.

И вот мы в мире, где для победы над AI-контентом введена и легализована персональная ответственность авторов контента, а чтобы получить внимание других живых людей, нужно сидеть под аккаунтом, который привязан к твоей биометрии.

И если ты запостишь что-то, что в картине мира Сэма Альтмана, его компаний и государственного аппарата будет воспринято как дезинформация или введенеи в заблуждений, то твой социальный рейтинг упадёт. Сначала ты лишишься доступа к постингу в эту соцсеть или каких-то бенефитов ChatGPT, а потом у тебя вырастет процент по ипотеке.

Норм?

Скрытый текст

Такие посты чаще выходят у меня в Telegram-канале [7], где в основном пишу про AI и его применение. Что? Сам раскрыл этот спойлер.

Автор: Niketas

Источник [8]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/25070

URLs in this post:

[1] выступил: https://www.youtube.com/watch?v=jo4Ze2c_hAY

[2] внимание: http://www.braintools.ru/article/7595

[3] World: https://world.org/

[4] работает: https://www.forbes.com/sites/annatong/2026/01/28/openai-wants-to-create-biometric-social-network-to-kill-xs-bot-problem/

[5] интерес: http://www.braintools.ru/article/4220

[6] была: https://world.org/blog/announcements/introducing-world-id-3-new-credentials-more-privacy-deep-fake-prevention

[7] у меня в Telegram-канале: https://t.me/+ruJuIsUOKKplZWQy

[8] Источник: https://habr.com/ru/articles/991834/?utm_source=habrahabr&utm_medium=rss&utm_campaign=991834

www.BrainTools.ru

Rambler's Top100