- BrainTools - https://www.braintools.ru -

OpenAI усиливает меры безопасности, чтобы не дать конкурентам скопировать свои передовые модели ИИ

OpenAI усиливает меры безопасности, чтобы помешать конкурентам копировать её модели искусственного интеллекта [1]. Этот шаг был предпринят на фоне обострения конкуренции между крупными компаниями в сфере ИИ.

OpenAI усиливает меры безопасности, чтобы не дать конкурентам скопировать свои передовые модели ИИ - 1

Эти изменения последовали за обвинениями в адрес китайского стартапа Deepseek [2], который, как сообщается, использовал модели OpenAI для разработки собственных систем, в том числе R1, с помощью процесса, известного как «дистилляция». [3] Deepseek не прокомментировал эти обвинения.

По данным Financial Times [4], в ответ на это OpenAI ограничила доступ к конфиденциальной информации, ввела биометрический контроль доступа и новые правила разделения данных. Один из основных шагов: внутренние системы отключаются от сети, если не получают явного разрешения на доступ к интернету. Эта мера призвана защитить весовые коэффициенты моделей от несанкционированной утечки.

Теперь сотрудникам разрешён доступ только к тем проектам, на которые у них есть специальное разрешение. Эта практика известна как «информационное разделение». Например, только коллеги, которым был предоставлен доступ, могли обсуждать проект с теми, кто работал над новой на тот момент моделью «o1» [5] под кодовым названием «Strawberry» [6].

Также были усилены меры физической безопасности. В центрах обработки данных теперь действуют более строгие правила доступа, а компания OpenAI наняла экспертов по безопасности с военным прошлым, в том числе Дэйна Стаки (ранее работавшего в Palantir) и отставного американского генерала Пола Накасоне [7].

Американские компании в сфере ИИ усиливают меры безопасности на фоне опасений Китая

В OpenAI заявляют, что эти изменения являются частью более масштабных инвестиций в безопасность, а не ответом на конкретный инцидент. Компания также реагирует на предупреждения официальных лиц США о росте промышленного шпионажа со стороны иностранных субъектов, в частности Китая.

Недавно OpenAI и Anthropic предупредили правительство США о модели R1 от Deepseek [8], сославшись на риски, связанные с вмешательством государства и широким доступом к данным. OpenAI обновила свою систему готовности [9] для более систематического отслеживания возможностей с высоким уровнем риска, таких как автономное копирование и кибератаки, с использованием более строгих критериев и автоматизированного тестирования.

В глобальной гонке ИИ [10] кража технологий становится всё более серьёзной угрозой для национальной и экономической безопасности. Сообщается, что Китай ввёл неофициальные ограничения на поездки [11] для специалистов в области ИИ, посоветовав им без крайней необходимости не ездить в США и страны-союзники. В связи с этими более масштабными опасениями сотрудники Deepseek [12], как сообщается, обязаны сдать свои паспорта и больше не могут свободно выезжать за пределы Китая.


Делегируйте часть рутинных задач вместе с BotHub [13]! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке [14] вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Перевод, источник новости здесь [15].

Автор: mefdayy

Источник [16]


Сайт-источник BrainTools: https://www.braintools.ru

Путь до страницы источника: https://www.braintools.ru/article/17079

URLs in this post:

[1] интеллекта: http://www.braintools.ru/article/7605

[2] китайского стартапа Deepseek: https://the-decoder.com/deepseek-r1-triggers-boom-in-reasoning-enabled-language-models/

[3] в том числе R1, с помощью процесса, известного как «дистилляция».: https://the-decoder.com/deepseeks-latest-r1-zero-model-matches-openais-o1-in-reasoning-benchmarks/

[4] По данным Financial Times: https://www.ft.com/content/f896c4d9-bab7-40a2-9e67-4058093ce250

[5] новой на тот момент моделью «o1»: https://the-decoder.com/study-openais-o1-relies-on-trial-and-error-and-informal-reasoning/

[6] под кодовым названием «Strawberry»: https://the-decoder.com/openai-to-launch-new-logic-focused-ai-model-strawberry-soon/

[7] американского генерала Пола Накасоне: https://the-decoder.com/openai-appoints-former-nsa-director-to-board-of-directors-as-cybersecurity-expert/

[8] OpenAI и Anthropic предупредили правительство США о модели R1 от Deepseek: https://the-decoder.com/openai-and-anthropic-raise-alarm-over-chinas-deepseek-in-warnings-to-us-government/

[9] OpenAI обновила свою систему готовности: https://the-decoder.com/openai-updates-risk-framework-to-assess-advanced-ai-capabilities/

[10] В глобальной гонке ИИ: https://the-decoder.com/the-winner-takes-it-all-the-us-china-ai-race-explained/

[11] Сообщается, что Китай ввёл неофициальные ограничения на поездки: https://the-decoder.com/chinas-ai-experts-get-quiet-warning-to-skip-us-travel-amid-rising-tech-tensions/

[12] сотрудники Deepseek: https://the-decoder.com/chinas-deepseek-reportedly-restricts-employee-travel-amid-ai-security-concerns/

[13] BotHub: https://bothub.chat/?utm_source=contentmarketing&utm_medium=habr&utm_campaign=news&utm_content=OPENAI_IS_STRENGTHENING_SECURITY_MEASURES_TO_PREVENT_COMPETITORS_FROM_COPYING_ITS_ADVANCED_AI_MODELS

[14] По ссылке: https://bothub.chat/?invitedBy=m_aGCkuyTgqllHCK0dUc7

[15] здесь: https://the-decoder.com/openai-is-ramping-up-security-to-prevent-rivals-from-copying-its-advanced-ai-models/

[16] Источник: https://habr.com/ru/companies/bothub/news/926054/?utm_source=habrahabr&utm_medium=rss&utm_campaign=926054

www.BrainTools.ru

Rambler's Top100