- BrainTools - https://www.braintools.ru -

Исчезающие сообщения, паранойя и переворот: что на самом деле произошло в OpenAI

Исчезающие сообщения, паранойя и переворот: что на самом деле произошло в OpenAI - 1

Вы когда-нибудь видели, как человека ловят на лжи на работе?

Не на маленькой невинной лжи, а на настоящей. На чём-то серьёзном, что человек активно скрывал от людей, которые ему доверяли.

А теперь представьте, что вместо увольнения с позором этот человек получил повышение.

Это история Сэма Альтмана.


Ноябрь 2023: переворот, который не состоялся

В ноябре 2023 года его собственный совет директоров пришёл к выводу, что ему нельзя доверять.

Официальная формулировка звучала так: «не был последовательно откровенен». В переводе с корпоративного на человеческий: «Он лгал».

Его уволили в пятницу. Но за следующие 72 часа произошло нечто, перевернувшее OpenAI с ног на голову.

Сотрудники компании подняли бунт и потребовали вернуть начальника.

Две необычайно влиятельные фигуры Кремниевой долины немедленно встали на сторону Альтмана: Рид Хоффман и Брайан Чески.

Первый — член совета директоров Microsoft, стратегического партнёра OpenAI. Второй — близкий друг Альтмана (и сооснователь и CEO Airbnb).

Два джентльмена организовали неформальную, но интенсивную кампанию по восстановлению Альтмана в должности.

Они обзванивали инвесторов, CEO и топ-менеджеров крупнейших технологических и финансовых компаний — короче говоря, каждого влиятельного игрока Долины, до которого могли дотянуться и который мог склонить чашу весов.

Наконец, Microsoft фактически предложила Альтману забрать всю команду и перейти к ним.

И внезапно стало ясно: совет директоров оказался единственными людьми в комнате, у которых не было реальной власти.

Они капитулировали. К вторнику Альтман вернулся. Совет директоров распустили. Новый совет оказался куда более сговорчивым.

Он больше не был просто CEO. Он стал императором. А императора нельзя уволить.

Я не могу вспомнить другую компанию, где баланс сил сместился так стремительно и бесповоротно в пользу одного человека.


Пока одни строят империи, другие строят инструменты. Если вам нужен доступ ко всем ключевым ИИ-моделям — Claude, GPT, Gemini и другим — без привязки к одному провайдеру и без танцев с подписками, посмотрите на BotHub.

Исчезающие сообщения, паранойя и переворот: что на самом деле произошло в OpenAI - 2

Для доступа не требуется VPN, можно использовать российскую карту.

По ссылке вы можете получить 300 000 бесплатных токенов [1]  для первых задач и приступить к работе с нейросетями прямо сейчас!


400 конфликтов интересов

Сэм Альтман предпочитает навязывать другим собственные правила, а не следовать уже существующим.

До того как стать лицом «самой важной технологии в истории», он годами нарушал одно из фундаментальных правил бизнеса — избегать конфликта [2] интересов. При этом он неоднократно и публично заявлял, что соблюдает это правило.

Что подтверждает правоту совета директоров: он лгал.

Как выяснилось в 2023 году, он тайно контролировал фонд под названием «OpenAI Startup Fund». Альтман структурировал его так, что сам был единственным юридическим владельцем и генеральным партнёром. Фонд накопил 325 миллионов долларов. И при этом:

  • У самой OpenAI не было юридических прав на фонд

  • Фонд финансировался партнёрами, включая Microsoft

  • Альтман единолично решал, какие стартапы получат доступ к OpenAI

Сверх того, Альтман владел долями в более чем 400 компаниях (через YC, Hydrazine и другие). Когда Reddit подписал сделку с OpenAI, его акции подскочили на 13% за ночь. Личная ставка Альтмана в 375 миллионов долларов на Helion Energy «удачно» совпала с переговорами о партнёрстве с OpenAI.

После многочисленных журналистских расследований одно ясно: это типичный modus operandi Сэма. Так он действует, когда никто не смотрит.


Паранойя в совете директоров — с последствиями в реальном мире

До попытки его уволить бывший совет директоров полагал, что контролирует ситуацию. Как выяснилось, они понятия не имели, кого поставили у руля.

Но подозрения у них были. В конце концов, интуиция [3] — это навык выживания в Кремниевой долине.

Правда в том, что члены совета боялись Альтмана. Они были настолько напуганы, что вместо открытого обсуждения поведения [4] своего CEO прибегли к конспиративным методам.

Они координировали увольнение через исчезающие сообщения и самоуничтожающиеся письма. Следовали правилам разведки — сжечь после прочтения.

Серьёзные, успешные, состоятельные люди крались, как подростки, нарушившие комендантский час, потому что были в ужасе от зловещего Сэма.

Но у них были законные основания. Бывший член совета Хелен Тонер подтвердила официально: совет узнал о запуске ChatGPT — продукта, изменившего мир — из Twitter. Альтман просто не счёл нужным их информировать.

Более того, когда Альтман захотел вытолкнуть её из совета за критическую статью, которую она написала, он солгал другим членам совета, заявив, что коллеги тоже требуют её удаления.

Он просто сфабриковал консенсус, чтобы устранить критика.

Этот паттерн обманчивого и хаотичного поведения [5] (как охарактеризовала [6]его Тонер — и как в разных формах подтвердили другие сотрудники) прослеживается ещё с его ранних предприятий: Looped и Y Combinator.

Три разных компании — один общий знаменатель: Альтман работает в условиях почти полного самоналоженного дефицита честности.


Сделка с Пентагоном: замена Anthropic

У Альтмана нет недостатка в талантах. Он не был бы там, где он есть — на вершине ИИ-пирамиды — если бы их не было.

Никто лучше него не умеет оказываться в нужном месте в нужное время. А оказавшись там — не оставлять места конкурентам.

Недавняя история о том, как Anthropic заменили на OpenAI в сделке с Пентагоном, — это мастер-класс по радикальному оппортунизму в стиле Альтмана.

Anthropic, основанная выходцами из OpenAI, отказалась от контракта с Пентагоном на 200 миллионов долларов. Почему? По словам Дарио Амодеи, CEO Anthropic, потому что правительство хотело использовать ИИ для массовой внутренней слежки за американскими гражданами и управления автономными системами вооружений. Руководство компании заявило, что не может согласиться на это по этическим соображениям.

В то же утро Сэм Альтман появился на CNBC и заявил, что полностью поддерживает позицию Anthropic. Он сказал, что OpenAI придерживается тех же принципов.

Через несколько часов OpenAI объявила, что забирает этот контракт себе. Тот самый контракт, со всеми его формулировками «для любых законных целей», которые Anthropic сочла аморальными — что немедленно вызвало в памяти [7] мем об «альтернативных фактах».

Альтман согласился на условия, на которые, если верить его собственным словам, он буквально не мог согласиться. Потому что, по мнению конституционных экспертов, эти условия идентичны тем, что санкционировали массовую слежку АНБ, разоблачённую Эдвардом Сноуденом.

Да, публика заметила этот ход главы OpenAI. Реакция [8] была мгновенной: количество удалений ChatGPT выросло на 295% за один день. Anthropic вышла победителем в глазах общественности.

Но Альтману было всё равно. Он живёт по собственным правилам.

Его объяснение [9]: «Если мы правы… мы будем выглядеть гениями… Если нет — нас и дальше будут называть торопливыми и неосторожными…»

Никакого «мы ошиблись». Никакой ответственности. Просто ставка на то, что победители пишут правила.


Правила больше не действуют

Что ж, все факты на столе: тайный фонд, ложь совету директоров, контракт на слежку и зелёный свет автоматизированным убийствам.

Ничто из этого не навредило Альтману лично. Он остаётся главой «самого дорогого стартапа в истории». Его по-прежнему считают визионерским CEO. Он — кумир тысяч, если не миллионов, стартап-фаундеров.

Он почти как Трамп, только пока не имеет полномочий отправлять авианосцы куда вздумается и бомбить другие страны по желанию — хотя кто знает, эта привилегия ещё может прийти.

Так вот, когда речь об Альтмане, нам нужно понять следующее.

Он создал новую парадигму, в которой масштаб видения настолько огромен, а ставки настолько экзистенциальны, что старые правила объявляются устаревшими.

И рынок, инвесторы, многие пользователи и предприниматели это приняли.

Неудобное подозрение состоит в том, что большая часть его успеха происходит от того, что он читает дух времени лучше всех остальных.

Возможно, это правда — но с этим трудно смириться.

Я не хочу жить в мире, где правила для всех нас устанавливает AGI, построенный под присмотром Альтмана.

А вы?

Автор: cognitronn

Источник [10]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/27944

URLs in this post:

[1] По ссылке вы можете получить 300 000 бесплатных токенов: https://bothub.chat/?invitedBy=iTNi-351UcHgc1BxGFWim

[2] конфликта: http://www.braintools.ru/article/7708

[3] интуиция: http://www.braintools.ru/article/6929

[4] поведения: http://www.braintools.ru/article/9372

[5] поведения: http://www.braintools.ru/article/5593

[6] охарактеризовала : https://www.youtube.com/watch?v=K6BvU4I5ANc

[7] памяти: http://www.braintools.ru/article/4140

[8] Реакция: http://www.braintools.ru/article/1549

[9] Его объяснение: https://x.com/sama/status/2027911640256286973

[10] Источник: https://habr.com/ru/companies/bothub/articles/1016476/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1016476

www.BrainTools.ru

Rambler's Top100