- BrainTools - https://www.braintools.ru -

Anthropic ищет эксперта, чтобы предотвратить «неправомерное использование» оружия с помощью ИИ

Американская компания в сфере искусственного интеллекта [1] Anthropic ищет [2] эксперта по химическому оружию и взрывчатым веществам большой мощности, чтобы предотвратить «катастрофическое неправомерное использование» своего программного обеспечения. Разработчик Claude опасается, что его ИИ-инструменты могут подсказать кому-то, как создавать химическое и радиоактивное оружие. Эксперт должен обеспечить достаточную надёжность защитных механизмов ПО.

Anthropic ищет эксперта, чтобы предотвратить «неправомерное использование» оружия с помощью ИИ - 1

В вакансии Anthropic указывает, что соискатель должен иметь минимум пятилетний опыт [3] работы в сфере «защиты от химического оружия и взрывчатых веществ», а также знания о «радиационных средствах рассеивания», известных как «грязные бомбы».

Компания сообщила [4] BBC, что эта должность аналогична тем, которые уже созданы в других ответственных областях. Anthropic — не единственная компания в сфере ИИ, которая применяет эту стратегию. Аналогичную вакансию на своём сайте разместила [5] и OpenAI. Разработчик ChatGPT предлагает таким кандидатам до $455 тыс., что почти вдвое больше, чем готова платить Anthropic.

Некоторые эксперты обеспокоены рисками такого подхода, предупреждая, что он предоставляет информацию об оружии ИИ-инструментам, даже если им дано указание не использовать её. Исследователи указывают на отсутствие международного договора или иного регламента, регулирующего этот сценарий работы и использования ИИ с подобным оружием. Всё это происходит незаметно для окружающих.

Индустрия ИИ постоянно предупреждала о потенциальных экзистенциальных угрозах, исходящих от её технологий, но компании и законодатели не предприняли никаких попыток замедлить этот прогресс. Проблема приобрела особую важность, когда американское правительство заключило контракты с ИИ-компаниями и начало боевые действия на Ближнем Востоке.

В конце прошлого месяца генеральный директор Anthropic Дарио Амодей отказал [6] Министерству оборону США в предоставлении полного доступа к своим ИИ-системам. В ответ Пентагон поместил [7] компанию в категорию рисков для цепочки поставок США. Anthropic теперь оспаривает [8] этот статус через суд.

Разработчик настаивает, что его системы не должны использоваться в полностью автономном оружии и для массовой слежки за американцами. Амодей пишет, что технология ещё недостаточно совершенна и не должна применяться в этих целях.

OpenAI заявила о согласии с позицией Anthropic, но затем заключила [9] собственный контракт с правительством США, который пока ещё не начал действовать. Пентагон продолжает использовать Claude в системах, предоставленных Palantir.

Автор: Travis_Macrif

Источник [10]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/27304

URLs in this post:

[1] интеллекта: http://www.braintools.ru/article/7605

[2] ищет: https://job-boards.greenhouse.io/anthropic/jobs/5140226008

[3] опыт: http://www.braintools.ru/article/6952

[4] сообщила: https://www.bbc.com/news/articles/c74721xyd1wo

[5] разместила: https://openai.com/careers/researcher-frontier-biological-and-chemical-risks-san-francisco/

[6] отказал: https://habr.com/ru/news/1004554/

[7] поместил: https://habr.com/ru/news/1007280/

[8] оспаривает: https://techcrunch.com/2026/03/09/anthropic-sues-defense-department-over-supply-chain-risk-designation/

[9] заключила: https://habr.com/ru/news/1005866/

[10] Источник: https://habr.com/ru/news/1011610/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1011610

www.BrainTools.ru

Rambler's Top100