- BrainTools - https://www.braintools.ru -

На этой неделе произошла история, которую почти не заметили крупные СМИ, но она обнажила тектонический сдвиг в американской политике. Во вторник утром министр обороны Пит Хегсет [1] вызвал Дарио Амодеи [2], CEO компании Anthropic, на ковер в Пентагон, чтобы обсудить военное применение их нейросети Claude. Но это был не дежурный разговор о контракте на 200 миллионов долларов и не мелкий спор о пользовательском соглашении. На деле Министерство обороны буквально выкручивает руки ИИ-компании, требуя убрать последние этические барьеры, чтобы использовать модель для массовой слежки за гражданами внутри страны и ведения войн с помощью автономного оружия без надзора человека.
Как сообщает Axios [3], посыл Пентагона к Anthropic был предельно жестким: «или делай, что говорят, или проваливай». Компании пригрозили повесить на нее ярлык «угрозы цепочке поставок» [4] — клеймо, которое обычно берегут для поставщиков, связанных с враждебными государствами. В переводе на человеческий язык это означает изгнание из оборонного сектора и негласное давление на любую компанию, работающую с Пентагоном, с требованием отказаться от использования Claude.
Немного контекста: прошлым летом Anthropic подписала с Минобороны контракт на $200 млн, сделав Claude единственной ИИ-моделью, допущенной в секретные военные сети США [5]. Claude, работая через сверхсекретное облако Amazon и ИИ-платформу Palantir [6], уже использовался в военной операции по похищению президента Венесуэлы Николаса Мадуро [7].
ИИ уже давно перестал быть игрушкой
Если вы используете ИИ только для того, чтобы делать свою старую работу немного быстрее, вы все еще действуете как рядовой потребитель. Стать создателем — войти в те самые 5% людей, свободно владеющих ИИ, — требует фундаментального сдвига в мышлении [8]. Речь больше не идет о том, чтобы спрашивать: «Как этот инструмент может выполнить мою текущую задачу?». Речь идет о том, чтобы спросить: «Как этот инструмент может полностью устранить, масштабировать или переизобрести всю мою операционную модель?»
И чтобы стать творцом, вам нужен правильный арсенал. Ограничиваться одним ChatGPT — значит добровольно сужать свои возможности.
Сервисы вроде BotHub дают доступ к целой экосистеме топовых нейросетей в одном окне (от генерации сложных текстов до глубокого анализа данных). Это позволяет вам экспериментировать, сравнивать результаты разных моделей и строить те самые системы, о которых говорит статистика.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов [9] для первых задач и приступить к работе с нейросетями прямо сейчас!
Тот венесуэльский эпизод резко изменил тон отношений: когда боссы Anthropic попытались узнать детали того, как именно Claude используется в реальных боевых операциях, Пентагон воспринял это как «этические нравоучения». Ответ был жестким: если Claude находится в системе, военные будут использовать его так, как сочтут нужным.
Министерство обороны, которое администрация Трампа теперь открыто называет «Министерством войны», в январе выпустило новую ИИ-стратегию [10]. Ее философия проста: в течение 180 дней во все контракты должен быть включен пункт о «любом законном использовании», а подрядчики обязаны снести все этические ограничения. Политический месседж кристально ясен: «ответственный» ИИ пойдет на войну, а что законно, а что нет — будет решать Пентагон.
Спор больше не о технологиях; это чистая политика. Anthropic уже согласилась убрать почти все свои ограничения, оставив лишь две красные линии: запрет на использование модели для массовой слежки за гражданами США и отказ участвовать в создании полностью автономных систем вооружения. И именно эти две линии Пентагон требует стереть.
И это не сценарий из киберпанка. Мы и так знаем, что правительство США занимается массовой слежкой. Но с такими передовыми моделями, как Claude, меняется сам масштаб и глубина анализа. Даже такие, казалось бы, четкие понятия, как «незаконная слежка за гражданами США», становятся резиновыми [11], когда в дело вступают широкие юридические трактовки и технологии массового анализа. Система, способная в реальном времени переваривать миллионы сообщений, скрещивать финансовые, биометрические и геолокационные базы данных, не просто ищет подозреваемых. Она может предсказывать поведение [12], составлять карты целых социальных сетей и навешивать ярлыки на эмоциональные состояния или политические тренды.
Вторая красная линия пугает еще больше. Создание смертоносного автономного оружия — систем, которые сами ищут, выбирают и уничтожают цели без надзора человека — это больше не академический спор. Пентагон давно движется в этом направлении, и, как отмечает Центр инноваций в области международного управления, США прямо сейчас втягивают планету в эру автономных войн [13]. Семантический сдвиг от «человек принимает решение» к «человек наблюдает за решением» и, наконец, к «человек полностью исключен из процесса» происходит постепенно, но неотвратимо.
К сожалению, крупные медиа не горят желанием обсуждать эту тему. Как справедливо замечает одинокий голос издания Lawfare, именно Конгресс должен определять рамки военного применения ИИ, а не Пентагон и частные корпорации [14].
По-настоящему пугает не только то, что хочет сделать Белый дом, но и то, как он это делает. Никто публично не обсуждает, должны ли военные иметь безлимитный доступ к нейросетям, способным контролировать население или самостоятельно принимать решения об убийстве. Нет ни одного закона, регулирующего использование генеративного ИИ для выбора военных целей. Правила игры прямо сейчас пишутся в тайне, на закрытых переговорах между «министром войны» и боссами из Кремниевой долины.
Когда архитектура технологий, от которых зависят жизни, смерти и приватность миллионов людей, решается за закрытыми дверями под угрозой промышленных санкций, вопрос перестает быть техническим и становится институциональным [15]. Кто будет следить за надзирателями, если само государство грозится уничтожить компанию за попытку установить ограничения?
Ситуация усугубляется тем, что другие бигтехи уже показали готовность прогнуться и снять свои предохранители ради жирных госзаказов. Это опасная гонка на дно в вопросах этики. Взять хотя бы xAI Илона Маска, которая уже получила доступ к системам Пентагона и, скорее всего, будет использоваться для систем вооружения и массовой слежки [16], если Anthropic откажется играть по правилам. При этом, хотя Дарио Амодеи только что заявил [17] о своем отказе прогибаться под Пентагон [18], его компания всё же тихо отказывается от своего главного Обещания безопасности (Safety Pledge) [19], в котором кля��ась не разрабатывать потенциально опасные технологии. А ведь именно за эту принципиальную позицию Дарио Амодеи в свое время попал на обложку журнала Time [20].
Остаются ли США демократией? Формально — да. По сути же кажется, что мы вступаем в те самые «темные времена», о которых писал Бертольт Брехт, когда мир катился к войне в 1930-х годах. Демократия определяется не просто регулярными выборами, а наличием эффективных ограничений для принудительной власти государства. Если эта власть стремится объединить массовую предиктивную слежку и автоматизированное насилие под непрозрачным контролем, дистанция между демократией и полицейским государством становится пугающе короткой.
Вопрос не в том, должны ли страны использовать ИИ в рамках своего законного права на самооборону. Вопрос в том, кто устанавливает границы этого использования [21]. Если ответ — военный аппарат сам по себе, без эффективного внешнего контроля, то это уже проблема не технологий, а верховенства закона.
ОБНОВЛЕНИЕ (27.02.2026): Дарио Амодеи дал официальный ответ [22]. И он сказал НЕТ.
Автор: cognitronn
Источник [23]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26431
URLs in this post:
[1] Пит Хегсет: https://en.wikipedia.org/wiki/Pete_Hegseth
[2] Дарио Амодеи: https://en.wikipedia.org/wiki/Dario_Amodei
[3] сообщает Axios: https://www.axios.com/2026/02/23/hegseth-dario-pentagon-meeting-antrhopic-claude
[4] повесить на нее ярлык «угрозы цепочке поставок»: https://www.bbc.com/news/articles/cjrq1vwe73po
[5] сделав Claude единственной ИИ-моделью, допущенной в секретные военные сети США: https://techcrunch.com/2026/02/23/defense-secretary-summons-anthropics-amodei-over-military-use-of-claude/
[6] работая через сверхсекретное облако Amazon и ИИ-платформу Palantir: https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17
[7] военной операции по похищению президента Венесуэлы Николаса Мадуро: https://www.nbcnews.com/tech/security/anthropic-ai-defense-war-venezuela-maduro-rcna259603
[8] мышлении: http://www.braintools.ru/thinking
[9] По ссылке вы можете получить 300 000 бесплатных токенов: https://bothub.chat/?invitedBy=iTNi-351UcHgc1BxGFWim
[10] в январе выпустило новую ИИ-стратегию: https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF
[11] Даже такие, казалось бы, четкие понятия, как «незаконная слежка за гражданами США», становятся резиновыми: https://www.scientificamerican.com/article/anthropics-safety-first-ai-collides-with-the-pentagon-as-claude-expands-into/
[12] поведение: http://www.braintools.ru/article/9372
[13] США прямо сейчас втягивают планету в эру автономных войн: https://www.cigionline.org/articles/the-united-states-quietly-kick-starts-the-autonomous-weapons-era/
[14] именно Конгресс должен определять рамки военного применения ИИ, а не Пентагон и частные корпорации: https://www.lawfaremedia.org/article/congress-not-the-pentagon-or-anthropic-should-set-military-ai-rules
[15] вопрос перестает быть техническим и становится институциональным: https://www.washingtonpost.com/technology/2026/02/22/pentagon-anthropic-ai-dispute/
[16] xAI Илона Маска, которая уже получила доступ к системам Пентагона и, скорее всего, будет использоваться для систем вооружения и массовой слежки: https://www.axios.com/2026/02/23/ai-defense-department-deal-musk-xai-grok
[17] Дарио Амодеи только что заявил: https://x.com/WesRoth/status/2026307377344213406
[18] отказе прогибаться под Пентагон: https://apnews.com/article/anthropic-ai-pentagon-hegseth-dario-amodei-9b28dda41bdb52b6a378fa9fc80b8fda
[19] тихо отказывается от своего главного Обещания безопасности (Safety Pledge): https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/
[20] Дарио Амодеи в свое время попал на обложку журнала Time: https://time.com/collections/time100-companies-2024/6980000/anthropic-2/
[21] Вопрос в том, кто устанавливает границы этого использования: https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/
[22] Дарио Амодеи дал официальный ответ: https://www.anthropic.com/news/statement-department-of-war
[23] Источник: https://habr.com/ru/companies/bothub/articles/1005178/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1005178
Нажмите здесь для печати.