- BrainTools - https://www.braintools.ru -
Известный бывший исследователь политики OpenAI Майлз Брандейдж [1] в среду выступил в социальных сетях [2] с критикой OpenAI за «переписывание истории» подхода компании к развертыванию потенциально рискованных систем AI. Ранее на этой неделе OpenAI опубликовала документ [3], в котором излагается ее текущая философия безопасности и согласованности AI, процесса проектирования систем AI, которые ведут себя желаемым и объяснимым образом.

В документе OpenAI заявила, что рассматривает разработку AGI, в широком смысле определяемую как системы AI, которые могут выполнять любую задачу, которую может выполнить человек, как «непрерывный путь», требующий «итеративного развертывания и обучения» технологий AI.
«В прерывистом мире уроки безопасности возникают из обращения с сегодняшними системами с чрезмерной осторожностью относительно их кажущейся мощности, что является подходом, который мы использовали для нашей модели AI GPT‑2», — пишет OpenAI.
«Теперь мы рассматриваем первый AGI как всего лишь одну точку в ряду систем возрастающей полезности. В непрерывном мире способ сделать следующую систему безопасной и полезной — это учиться у текущей системы».
Однако Брандейдж утверждает, что на самом деле GPT-2 требовал большой осторожности на момент своего выпуска и что это «на 100% соответствовало» сегодняшней стратегии итеративного развертывания OpenAI.
«Выпуск OpenAI GPT-2, в котором я принимал участие, на 100% соответствовал и предвосхитил нынешнюю философию итеративного развертывания OpenAI», — написал Брандейдж в посте на X. [4]
«Модель выпускалась постепенно, с обменом уроками на каждом этапе. Многие эксперты по безопасности в то время благодарили нас за эту осторожность».
Брэндедж, который присоединился к OpenAI в качестве научного сотрудника в 2018 году, несколько лет возглавлял отдел политических исследований компании. В команде OpenAI «готовность к AGI» он уделял особое внимание [5] ответственному развертыванию систем генерации языка, таких как платформа чат-ботов AI OpenAI ChatGPT.
GPT-2 [6], анонсированный OpenAI в 2019 году, был прародителем систем искусственного интеллекта [7], лежащих в основе ChatGPT [8]. GPT-2 мог отвечать на вопросы по теме, резюмировать статьи и генерировать текст на уровне, иногда неотличимом от человеческого.
Источник [9]
Автор: dilnaz_04
Источник [10]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/12885
URLs in this post:
[1] Майлз Брандейдж: https://techcrunch.com/2024/10/23/longtime-policy-researcher-miles-brundage-leaves-openai/
[2] выступил в социальных сетях: https://x.com/Miles_Brundage/status/1897426207131705739
[3] документ: https://openai.com/safety/how-we-think-about-safety-alignment/
[4] написал Брандейдж в посте на X.: https://x.com/Miles_Brundage/status/1897426208658502046
[5] внимание: http://www.braintools.ru/article/7595
[6] GPT-2: https://techcrunch.com/2019/02/17/openai-text-generator-dangerous/
[7] интеллекта: http://www.braintools.ru/article/7605
[8] ChatGPT: https://techcrunch.com/2025/02/12/chatgpt-everything-to-know-about-the-ai-chatbot/
[9] Источник: https://techcrunch.com/2025/03/06/openais-ex-policy-lead-criticizes-the-company-for-rewriting-its-ai-safety-history/
[10] Источник: https://habr.com/ru/companies/bothub/news/888730/?utm_source=habrahabr&utm_medium=rss&utm_campaign=888730
Нажмите здесь для печати.