- BrainTools - https://www.braintools.ru -

Сэм Альтман прокомментировал контракт OpenAI с Министерством обороны США и связанные с ним риски для индустрии искусственного интеллекта [1]. Глава компании заявил, что соглашение было подписано в условиях напряжённой ситуации, его цель — снизить риск конфликта [2] между правительством и IT-компаниями.
Переговоры Пентагона с компанией Anthropic завершились неудачей, после чего ведомство пригрозило признать её «угрозой национальной безопасности в цепочке поставок». Сразу после этого сделку с Министерством обороны заключила OpenAI. Контракт запрещает использовать технологии компании для внутреннего наблюдения и требует назначения ответственного при работе автономных систем вооружений.
В субботу Альтман открыл сессию ответов [3] на вопросы пользователей X.com, объяснив детали соглашения и позицию OpenAI.
Сэм Альтман: Применение к Anthropic статуса угрозы национальной безопасности в цепочке поставок имело бы очень неприятные последствия для всей отрасли, для страны и, конечно, для самой компании. Мы неоднократно говорили об этом Министерству обороны и до, и после переговоров. Мы решили действовать быстро в надежде на деэскалацию. Это прецедент, к которому всем стоит отнестись очень серьёзно. Я надеюсь, что это решение будет пересмотрено, и готов принять критику за нашу позицию.
По словам Альтмана, OpenAI долгое время участвовала только в несекретных проектах, но теперь Пентагон готов обсуждать сотрудничество на новых условиях.
Сэм Альтман: Я знаю, каково это — чувствовать себя загнанным в угол, и я сочувствую Министерству обороны. Это очень преданная своему делу группа людей с чрезвычайно важной миссией. Я не могу представить, каково это — выполнять их работу. Наша отрасль говорит им: «Технология, которую мы создаём, станет важнейшим элементом геополитического конфликта. Китай стремительно развивается, вы сильно отстаёте». И тут же добавляем: «Но мы вам не поможем, потому что в наших глазах вы вроде как злодеи». Я бы не был такому рад.
Вопрос: Вас беспокоит возможное ухудшение ситуации или риски для цепочки поставок, если в будущем возникнет спор с Минобороны о законности или незаконности использования технологий?
Сэм Альтман: Да, беспокоит. Если придётся бороться [с Минобороны], мы будем, конечно, но это риск. Мы решили действовать быстро, чтобы снизить вероятность обострения.
Вопрос: Почему Министерство обороны выбрало OpenAI, а не Anthropic?
Сэм Альтман: Мы придерживаемся многоуровневого подхода к безопасности — технические средства защиты, работа инженеров на местах, взаимодействие исследователей, облачные решения. Anthropic больше сосредоточилась на формальных запретах, а мы — на реальных мерах безопасности. Думаю, им также было важно сохранить больше контроля, чем нам.
Вопрос: У ваших контрактов одинаковые условия?
Сэм Альтман: Нет, детали отличались. Но теперь наши условия будут доступны и им, если они захотят.
Вопрос: Могут ли сотрудники отказаться от участия в проектах с Министерством обороны?
Сэм Альтман: Да, никто не обязан участвовать в таких разработках, если не хочет.
Вопрос: Какова сумма контракта?
Сэм Альтман: Это несколько миллионов долларов — незначительная сумма на фоне нашей выручки в более $20 млрд. Мы делаем это не ради денег, а потому что считаем правильным для страны, даже ценой репутационных издержек.
Автор: AnnieBronson
Источник [4]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/26394
URLs in this post:
[1] интеллекта: http://www.braintools.ru/article/7605
[2] конфликта: http://www.braintools.ru/article/7708
[3] сессию ответов: https://x.com/sama/status/2027900042720498089
[4] Источник: https://habr.com/ru/news/1005100/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1005100
Нажмите здесь для печати.