- BrainTools - https://www.braintools.ru -
Американская компания в сфере искусственного интеллекта [1] Anthropic ищет [2] эксперта по химическому оружию и взрывчатым веществам большой мощности, чтобы предотвратить «катастрофическое неправомерное использование» своего программного обеспечения. Разработчик Claude опасается, что его ИИ-инструменты могут подсказать кому-то, как создавать химическое и радиоактивное оружие. Эксперт должен обеспечить достаточную надёжность защитных механизмов ПО.

В вакансии Anthropic указывает, что соискатель должен иметь минимум пятилетний опыт [3] работы в сфере «защиты от химического оружия и взрывчатых веществ», а также знания о «радиационных средствах рассеивания», известных как «грязные бомбы».
Компания сообщила [4] BBC, что эта должность аналогична тем, которые уже созданы в других ответственных областях. Anthropic — не единственная компания в сфере ИИ, которая применяет эту стратегию. Аналогичную вакансию на своём сайте разместила [5] и OpenAI. Разработчик ChatGPT предлагает таким кандидатам до $455 тыс., что почти вдвое больше, чем готова платить Anthropic.
Некоторые эксперты обеспокоены рисками такого подхода, предупреждая, что он предоставляет информацию об оружии ИИ-инструментам, даже если им дано указание не использовать её. Исследователи указывают на отсутствие международного договора или иного регламента, регулирующего этот сценарий работы и использования ИИ с подобным оружием. Всё это происходит незаметно для окружающих.
Индустрия ИИ постоянно предупреждала о потенциальных экзистенциальных угрозах, исходящих от её технологий, но компании и законодатели не предприняли никаких попыток замедлить этот прогресс. Проблема приобрела особую важность, когда американское правительство заключило контракты с ИИ-компаниями и начало боевые действия на Ближнем Востоке.
В конце прошлого месяца генеральный директор Anthropic Дарио Амодей отказал [6] Министерству оборону США в предоставлении полного доступа к своим ИИ-системам. В ответ Пентагон поместил [7] компанию в категорию рисков для цепочки поставок США. Anthropic теперь оспаривает [8] этот статус через суд.
Разработчик настаивает, что его системы не должны использоваться в полностью автономном оружии и для массовой слежки за американцами. Амодей пишет, что технология ещё недостаточно совершенна и не должна применяться в этих целях.
OpenAI заявила о согласии с позицией Anthropic, но затем заключила [9] собственный контракт с правительством США, который пока ещё не начал действовать. Пентагон продолжает использовать Claude в системах, предоставленных Palantir.
Автор: Travis_Macrif
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/27304
URLs in this post:
[1] интеллекта: http://www.braintools.ru/article/7605
[2] ищет: https://job-boards.greenhouse.io/anthropic/jobs/5140226008
[3] опыт: http://www.braintools.ru/article/6952
[4] сообщила: https://www.bbc.com/news/articles/c74721xyd1wo
[5] разместила: https://openai.com/careers/researcher-frontier-biological-and-chemical-risks-san-francisco/
[6] отказал: https://habr.com/ru/news/1004554/
[7] поместил: https://habr.com/ru/news/1007280/
[8] оспаривает: https://techcrunch.com/2026/03/09/anthropic-sues-defense-department-over-supply-chain-risk-designation/
[9] заключила: https://habr.com/ru/news/1005866/
[10] Источник: https://habr.com/ru/news/1011610/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1011610
Нажмите здесь для печати.