- BrainTools - https://www.braintools.ru -

Минцифры РФ опубликовало [1] на портале проектов нормативных актов законопроект под названием «Об основах государственного регулирования сфер применения технологий искусственного интеллекта [2] в Российской Федерации» с пояснениями и ограничениями работы ИИ в стране. Ожидается, что закон начнёт действовать с 1 сентября 2027 года.
Согласно законопроекту, регулирование ИИ будет затрагивать как юридических, так и физических лиц, занимающихся разработкой ИИ-систем. Закон не будет распространяться на использование ИИ в ситуациях, связанных с обороной, государственной безопасностью, чрезвычайными ситуациями и правопорядком, если иное не предусмотрено другими федеральными законами.
В документе Минцифры указано, что все этапы разработки и обучения [3] моделей ИИ должны проводиться исключительно на территории страны. Международное сотрудничество в области применения ИИ предлагается осуществлять через совместные научные исследования и обмен данными.
Законопроект вводит рамочное регулирование применения ИИ в России, заявил [4] заместитель председателя правительства Дмитрий Григоренко. В частности, документ впервые закрепляет на законодательном уровне само понятие искусственного интеллекта, устанавливает права и обязанности участников рынка и вводит обязательную маркировку фото-, видео- и аудиоконтента, созданного с помощью ИИ, уточнил Григоренко.
«Законопроект также предусматривает риск-ориентированный подход к регулированию ИИ. То есть требования к системам ИИ зависят от степени их влияния на жизнь человека и общество», — заявил вице-премьер.
Григоренко подчеркнул важность соблюдения баланса «между защитой интересов граждан и развитием технологий». Поэтому законопроект предусматривает установление отдельных требований «для чувствительных сфер применения искусственного интеллекта, например, в госуправлении». «При этом в коммерческом секторе обязательные требования по использованию ИИ не устанавливаются», — добавил Григоренко.
Документ также вводит понятие «трансграничные технологии искусственного интеллекта». К ним предлагают относить любые технологии, создание, разработка, использование или передача которых связаны с территориями или субъектами двух и более государств.
Согласно одной из статей законопроекта, работа таких технологий «может быть запрещена или ограничена в случаях, установленных законодательством России». О каких случаях ид`т речь — не уточняется.
В законопроекте отмечается, что предупреждение об ИИ-контенте должно размещаться «в составе синтезированного, сгенерированного информационного материала в формате, воспринимаемом человеком, и машиночитаемом формате». Маркировку обеспечивает владелец ИИ-сервиса. Крупные соцсети должны будут проверять наличие предупреждения о сгенерированном контенте. Если его не будет, соцсети должны будут сами маркировать материалы или удалять их.
«Планируется, что документ вступит в силу с 1 сентября 2027 года, установив чёткие правила для разработчиков, бизнеса и государства. Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов»,— отмечается в документе. Проект закона будет распространяться на разработчиков ИИ (юрлиц) и на физлиц.
Законопроект Минцифры также предлагает понятия суверенной, национальной и доверенной моделей искусственного интеллекта. Последние — это модели, отвечающие всем пунктам законопроекта и внесённые в специальный реестр. Национальные и суверенные ИИ-модели — это те, которые были полностью созданы в России, их разрабатывали граждане и юрлица из РФ на основе данных из российских источников.
Цель законопроекта — защитить пользователей от скрытых манипуляций и алгоритмической дискриминации с помощью ИИ. Заодно государство впервые на уровне закона фиксирует, что такое ИИ и кто за него отвечает.
В рамках законопроекта Минцифры по регулированию ИИ:
вводится риск-ориентированная модель регулирования. Чем сильнее система влияет на жизнь людей, тем жёстче требования;
появляются новые категории: «суверенные», «национальные» и «доверенные» модели ИИ:
законопроект разделяет модели искусственного интеллекта на категории в зависимости от их происхождения и уровня доверия:
суверенные и национальные модели — это те, которые полностью созданы в России: все стадии разработки и обучения идут на территории страны, выполняют их только граждане России или российские юрлица (более 50% голосов принадлежат гражданам России без второго гражданства или государству). Данные для обучения модели сформированы в России. Для таких моделей предполагается «господдержка внедрения и создание благоприятных условий». В пояснении к документу Минцифры уточняет, что требования к суверенным и национальным моделям устанавливаются для того, чтобы «очертить круг моделей, для разработки и внедрения которых будут предоставлены меры господдержки»;
доверенные модели — те, которые разрешат использовать в госинформсистемах и на значимых объектах критической информационной инфраструктуры (информсистемы и сети связи в госорганах, энергетических, финансовых, транспортных, медицинских, телекоммуникационных и ряде др. компаний). Чтобы получить этот статус, модель должна пройти проверку безопасности у ФСБ и ФСТЭК, обрабатывать данные в России и подтвердить качество по отраслевым стандартам. Такие модели будут включать в специальный реестр — правила определит правительство. Оно же может сделать их обязательными для использования на отдельных объектах. При этом суверенная или национальная модель может стать доверенной, если дополнительно выполнит требования по безопасности и качеству.
предлагается обучать и разрабатывать ИИ только на территории РФ;
разработчикам и компаниям нужно будет обязательно маркировать контент, созданный ИИ (фото, видео, аудио).
Права пользователей в случаях задействование ИИ:
можно будет оспорить решения госорганов и госкомпаний, если они приняты с участием ИИ, причём без суда;
появляется право требовать компенсацию, если ИИ причинил вред;
пользователь сервиса и модели ИИ будет обязан соблюдать правил доступа к сервису:
использовать его только в целях, не противоречащих законодательству;
отказаться от совершения действий, направленных на обход встроенных механизмов безопасности и контроля;
кроме того, обязаны соблюдаться права и интересы третьих лиц при использовании сгенерированного контента.
Обязанности разработчиков и компаний при задействовании ИИ-систем:
разработчики ИИ‑моделей обязаны исключить из таких систем функционал, который может привести к дискриминации людей на основе их поведения [5] или личностных характеристик; информировать о том, что модель нельзя использовать в запрещённых целях, проводить моделирование потенциальных рисков;
операторы ИИ-модели обязаны включить в документацию руководство по безопасной эксплуатации, проводить тестирование системы; предоставлять пользователям информацию о функциональном назначении системы и её ограничениях; приостанавливать работу при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу или окружающей среде;
если при применении ИИ что-то пошло не так, то ответственность будут делить между всеми участниками: разработчик модели ИИ, оператор системы ИИ, владелец сервиса и пользователь «соразмерно степени вины каждого». Например, разработчик, оператор и владелец сервиса ИИ будут отвечать, если они заведомо знали или должны были знать о возможности такого результата. Они будут освобождены от ответственности, если предприняли исчерпывающие меры для предотвращения вреда; соблюдали все требования закона; вред возник из-за непреодолимой силы, умысла потерпевшего или действий третьих лиц, которые невозможно было предвидеть. В законопроекте не прописаны возможные наказания, лишь указано, что виновные будут нести административную и уголовную ответственность.
Больше всего обязанностей законопроект предполагает для владельцев ИИ‑сервисов:
принимать меры, чтобы сервис не использовался в противоправных целях; внедрять механизмы, ограничивающих возможность создания с помощью сервиса материалов, противоречащих российскому законодательству. Если к сервису в течение суток обращаются больше 500 тыс. пользователей из России, владелец должен выполнять требования «закона Яровой» и хранить данные и содержание сообщений пользователей, предоставлять их по требованию правоохранительных органов.
владелец сервиса также обязан маркировать контент, созданный с помощью ИИ (требования к этой маркировке должно будет установить правительство). Крупные платформы с суточной аудиторией более 100 тыс. человек должны проверять наличие таких предупреждений и при их отсутствии либо предупредить распространителя непромаркированного ИИ‑контента, либо удалить его.
при заключении договоров с разработчиками моделей ИИ владельцы сервисов должны согласовать порядок передачи прав на созданные с использованием этих моделей результаты интеллектуальной деятельности. Эти условия должны соблюдать права авторов оригинальных работ, положенных в основу обучения моделей. Кроме того, владельцы сервисов должны включать в пользовательское соглашение условие о том, кому принадлежат права на сгенерированный контент.
Отдельный блок законопроекта посвящён вычислительной инфраструктуре для ИИ. Правительство сможет утвердить перечень центров обработки данных (ЦОДов) для ИИ, которые получат специальные условия:
смогут заключать долгосрочные договоры купли-продажи электроэнергии с закреплённым предельным уровнем цены на весь срок действия соглашения;
будут освобождены от платы за технологическое присоединение;
получат преимущество для присоединение к электросетям при равных условиях с другими заявителями и упрощённый порядок согласования схем внешнего электроснабжения при строительстве;
смогут покупать энергию по регулируемым тарифам, сниженным относительно уровня промышленных потребителей соответствующего региона и др.
смогут получать бюджетное финансирование, налоговые льготы и др. преференции.
В законопроекте есть раздел о международном сотрудничестве в сфере ИИ (совместные исследования, обмен данными и образовательными ресурсами, участие в стандартизации и создании совместных инфраструктурных и инновационных продуктов). Основным принципом должно быть «обеспечение равных прав и возможностей наций в области разработки и использования ИИ». Среди задач международного сотрудничества указаны:
формирование «единого пространства» доверенных технологий искусственного интеллекта при лидирующей роли России в международном и региональном сотрудничестве;
продвижение политики и стандартов, обеспечивающих доступ разработчиков технологий ИИ и их потребителей к рынкам и ресурсам;
продвижение за рубежом отечественных технологий ИИ;
использование технологических заделов России в области ИИ для сокращения разрыва между различными странами и повышения технологического потенциала государств-партнёров.
Также в рамках законопроекта вводится понятие «трансграничные технологии ИИ» — те, создание или использование которых связано с двумя и более государствами. В законопроекте говорится, что их функционирование «может быть запрещено или ограничено» в случаях, которые установит законодательство.
В сопроводительных документах Минцифры указано, что законопроект носит рамочный характер, поэтому его нормы будут распространяться на всех граждан, юрлиц и индивидуальных предпринимателей, находящихся на территории России. При этом проект не будет распространяться на применение ИИ для обороны и безопасности государства, охраны правопорядка, предотвращения чрезвычайных ситуаций. Особенности применения ИИ в этих областях будут определять президент России или другие федеральные законы.
Авторы проекта указали, что из-за того, что он рамочный, на данном этапе нельзя точно оценить размер затрат на исполнение обязательных требований, как и дать оценку рискам и негативным последствиям от внедрения регулирования.
В настоящее время отсутствие системного регулирования, неопределённость прав и обязанностей лиц, разрабатывающих, внедряющих и использующих ИИ, недостаточность мер поддержки, сдерживает развитие указанных технологий в стране, что грозит техническим отставанием, говорится в документе Минцифры. «Актуализируется риск того, что технологии искусственного интеллекта будут применяться без одновременного принятия мер по безопасности указанных технологий, что может привести к нанесению ущерба, в том числе жизни и здоровью граждан, имуществу, общественной безопасности и т.п.», — указали авторы законопроекта.
Автор: denis-19
Источник [6]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/27361
URLs in this post:
[1] опубликовало: https://regulation.gov.ru/projects/166424/
[2] интеллекта: http://www.braintools.ru/article/7605
[3] обучения: http://www.braintools.ru/article/5125
[4] заявил: https://www.rbc.ru/technology_and_media/18/03/2026/69baed539a7947daf36b8989
[5] поведения: http://www.braintools.ru/article/9372
[6] Источник: https://habr.com/ru/news/1012026/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1012026
Нажмите здесь для печати.