Anthropic PBC начала этот год с череды успехов: рост продаж, множество популярных продуктов и крупный раунд финансирования — все это дает стартапу большое преимущество в дорогостоящей глобальной гонке в области ИИ.
В пятницу администрация Трампа издала два распоряжения, которые могут затормозить развитие одной из самых успешных в стране компаний в сфере искусственного интеллекта.
Во-первых, президент Дональд Трамп приказал федеральным агентствам прекратить использование программного обеспечения Anthropic, которое стало популярным, в частности, как помощник в программировании.
Вскоре после этого Пентагон объявил разработчика ИИ рискованной компанией — такое определение обычно применяется к компаниям из стран, которые США считают противниками.
Эти шаги, предпринятые после напряженного противостояния между стартапом из Сан-Франциско и Пентагоном по поводу мер безопасности в сфере искусственного интеллекта, направлены не только на то, чтобы лишить Anthropic возможности продавать свои услуги правительству США, но и многим другим компаниям.
«Ни один подрядчик, поставщик или партнер, ведущий дела с вооруженными силами США, не может вести коммерческую деятельность с Anthropic», — написал министр обороны Пит Хегсет в своем посте в социальных сетях в пятницу вечером.
Пока неясно, как это повлияет на компанию и экосистему искусственного интеллекта.
По крайней мере, у таких конкурентов, как OpenAI, Google от Alphabet Inc. и xAI Илона Маска, теперь есть возможность получить государственные заказы, которые ранее доставались Anthropic. Однако некоторые эксперты в области права и политики предупреждают, что последствия могут быть гораздо серьезнее, если Пентагон выполнит свое обещание.
Запрет Anthropic на сотрудничество с корпоративными клиентами, которые ведут дела с Министерством обороны, станет «смертельным ударом» для бизнеса Anthropic, считает Чарли Буллок, юрист и старший научный сотрудник Института права и искусственного интеллекта, бостонского аналитического центра. Как следует из поста Хегсета, политика Пентагона фактически лишит Anthropic возможности сотрудничать с некоторыми из ее крупнейших партнеров, такими как Amazon.com Inc., сказал Буллок.
Дин Болл, бывший советник Белого дома, участвовавший в разработке Плана действий администрации Трампа в области искусственного интеллекта, поддержал эту точку зрения. «Nvidia, Amazon, Google придется отказаться от сотрудничества с Anthropic, если Хегсет добьется своего, — написал он в посте на X. — Это просто попытка корпоративного рейдерства».
Ожидается, что компания, основанная в 2021 году несколькими бывшими сотрудниками OpenAI, готовится к первичному публичному размещению акций уже в этом году.
Anthropic, владеющая популярным чат-ботом Claude, стремится убедить как можно больше компаний платить за ее программное обеспечение, чтобы компенсировать огромные затраты на разработку искусственного интеллекта и оправдать высокую оценку компании в 380 миллиардов долларов.
В заявлении от пятницы компания Anthropic назвала этот шаг «неправомерным с юридической точки зрения» и «опасным прецедентом».
Компания также заявила, что готова к судебному разбирательству по поводу своего программного обеспечения. «Никакие угрозы или наказания со стороны Министерства обороны не заставят нас изменить нашу позицию в отношении массовой слежки внутри страны или полностью автономного оружия, — написала компания. — Мы будем оспаривать любое решение о риске для цепочки поставок в суде».
По словам одного из инвесторов Anthropic, пожелавшего сохранить анонимность, некоторые спонсоры обеспокоены тем, что отказ Anthropic уступить требованиям администрации Трампа может навредить бренду компании и создать впечатление, что стартап настроен враждебно и антиамерикански.
Тем не менее некоторые инвесторы опасаются публично высказывать свое недовольство или даже возражать в частном порядке. Anthropic — жемчужина многих их портфелей, и решительный контроль генерального директора Дарио Амодеи над направлением развития компании заставляет многих венчурных инвесторов держать язык за зубами, даже если они не согласны с его выбором, как утверждают несколько инвесторов Anthropic.
Другие инвесторы поддержали Anthropic вне зависимости от того, решила ли компания сотрудничать с Пентагоном.
Некоторые отметили, что правительство обеспечивает производителя моделей минимальным доходом. Этот шаг также вызвал значительную поддержку Anthropic в технологическом сообществе, а некоторые руководители высоко оценили позицию компании.
Хегсет дал компании время до 17:01 пятницы, чтобы разрешить Пентагону использовать Claude в любых целях в рамках закона, но без каких-либо ограничений со стороны Anthropic. Стартап настаивал на том, чтобы чат-бот не использовался для массовой слежки за американцами или для полностью автономных операций с применением оружия.
Решение Трампа обязать ведомства отказаться от услуг Anthropic создавало определенные риски для компании, но для компании с доходом в 14 миллиардов долларов они были невелики.
В июле Anthropic заключила соглашение с Министерством обороны на сумму до 200 миллионов долларов, но, согласно данным о государственных контрактах, опубликованным Bloomberg, в прошлом году Пентагон заплатил Anthropic всего 2 миллиона долларов.
В этом месяце Anthropic заключила первую сделку с Государственным департаментом США на использование Claude, стоимость которой составила всего 19 000 долларов.
В прошлом году компания также заключила масштабное соглашение с Административно-бюджетным управлением США, согласно которому федеральные правительственные учреждения могут использовать Claude за символическую плату в 1 доллар. Хегсет установил максимальный срок в шесть месяцев, в течение которого услуги Anthropic могут быть переданы другому поставщику ИИ.
Цели действий Министерства обороны в конечном счете гораздо шире: ведомство относится к Anthropic так же, как к китайским фирмам, которые, по мнению США, представляют угрозу безопасности.
Однако, по словам Буллока, законные основания, на которые ссылается Хегсет, на самом деле довольно узки и позволяют ведомству запрещать своим подрядчикам использовать продукты Anthropic для закупок, связанных с оборонными контрактами, но не обязательно для таких целей, как использование Claude в коммерческих целях.
Хегсет, скорее всего, будет опираться на Федеральный совет по безопасности закупок, созданный во время первого президентского срока Трампа, при реализации этой политики, считает Питер Харрелл, бывший сотрудник администрации Байдена и приглашенный научный сотрудник Джорджтаунской школы права. «Ограничение, которое, на мой взгляд, вводит в заблуждение Хегсет, по крайней мере с юридической точки зрения, заключается в том, что это должно распространяться только на подрядчиков, работающих по контрактам с Министерством обороны», — сказал Харрелл.
Если бы Пентагон попытался запретить компаниям, заключившим с ним контракты, вести дела с Anthropic, «суды довольно быстро отменили бы это решение», но «я не могу сказать, что они не попытаются», — сказал Харрелл. — Похоже, они готовы пробовать то, что будет отменено в суде.
По словам Буллока, если Anthropic подаст иск в суд, это может дать компании время. Например, суд может вынести в отношении компании временный запретительный судебный приказ или предварительное судебное постановление. «Но поживем — увидим».
Решение Пентагона вызвало бурную реакцию в сообществе специалистов по искусственному интеллекту — как из-за его последствий в более широком споре о том, как безопасно внедрять мощные технологии, так и из-за широкой популярности Claude Code для разработки программного обеспечения.
По словам одного из руководителей стартапа в сфере искусственного интеллекта, пожелавшего сохранить анонимность, практически все компании, занимающиеся разработкой программного обеспечения, сотрудничают с Anthropic. По его словам, невозможность использовать Claude Code станет катастрофой как для отрасли, так и для конкурентоспособности США.
Автор: nikolz


