- BrainTools - https://www.braintools.ru -
18 марта 2026 года опубликован проект федерального закона «Об основах государственного регулирования применения технологий искусственного интеллекта».
Документ масштабный, это первая попытка системно описать правила игры для ИИ в России. Разбираю, что в нем действительно важно и как это повлияет на компании.
Сейчас будет лонгрид с выдержками из закона и потенциальными последствиями для бизнеса.
Если хочется краткую выжимку, welcome в конец статьи.
Закон вводит понятийный аппарат от «больших фундаментальных моделей» до «эксплуатации уязвимостей человека» и прописывает правила игры для всех, от стартапов до гигантов вроде Яндекс и Сбера.
Статья 1.3: «Действие настоящего Федерального закона распространяется на физических и юридических лиц, осуществляющих деятельность в области разработки, применения, внедрения технологий искусственного интеллекта [1] на территории Российской Федерации».
Главная цель, заявленная в статье 1 «обеспечение государственного технологического суверенитета». Если переводить с бюрократического на русский: государство хочет, чтобы критически важные нейросети были российскими, обучались в России, на российских данных и российскими руками.
Важное исключение, закон не работает там, где начинается оборона и безопасность.
> Статья 1.4: «Действие настоящего Федерального закона не распространяется на отношения, возникающие в связи с применением технологий искусственного интеллекта для целей обороны и безопасности государства и охраны правопорядка… если иное не предусмотрено федеральными законами или актами Президента Российской Федерации».
Пожалуй, самый резонансный блок.
Статья 7 вводит понятие «суверенной» и «национальной» модели ИИ. Чтобы модель получила такой статус, нужно выполнить три условия:
> Статья 7.2: «Для целей настоящего Федерального закона под суверенной и национальной моделями искусственного интеллекта понимаются модели искусственного интеллекта, соответствующие следующим требованиям:
> а) все стадии разработки и обучения [2] моделей искусственного интеллекта осуществляются на территории Российской Федерации;
> б) все стадии разработки, обучения и эксплуатации моделей искусственного интеллекта осуществляются гражданами Российской Федерации и российскими юридическими лицами;
> в) обучение моделей искусственного интеллекта с использованием наборов данных, формирование которых осуществляется на территории Российской Федерации гражданами Российской Федерации и российскими юридическими лицами».
Статья 8 идет дальше, создается «Реестр доверенных моделей искусственного интеллекта». В него попадают модели, прошедшие проверку безопасности (ФСБ, ФСТЭК) и качества.
> Статья 8.1: «К применению в государственных информационных системах и на значимых объектах критической информационной инфраструктуры Российской Федерации, принадлежащих государственным органам и государственным учреждениям, и предприятиям, допускаются модели искусственного интеллекта, включенные в реестр доверенных моделей искусственного интеллекта».
Требования к доверенным моделям:
> Статья 8.2: «…соответствующие следующим требованиям:
> а) наличие подтверждения соответствия модели… требованиям по безопасности, установленным… федеральным органом исполнительной власти, уполномоченным в области противодействия техническим разведкам и технической защиты информации и федеральным органом исполнительной власти, уполномоченным в области обеспечения безопасности;
> б) обеспечение обработки данных исключительно на территории Российской Федерации».
Что это значит на практике?
Если вы госорган или владелец объекта критической инфраструктуры (например, энергетики или транспорта), вы обязаны использовать только те нейросети, которые есть в этом реестре. Фактически это создает закрытый клуб для избранных российских игроков и отсекает западные OpenAI, Anthropic и даже обученные за рубежом российские модели от госзаказа.
Если вы уже устали читать, то краткая выдержка статьи в конце поста :) Если нет, то продолжаем
Самый страшный сон [3] любого IT-биз��еса – ответственность за то, что натворила нейросеть. Закон в статье 11 пытается справедливо распределить вину.
> Статья 11.1: «Субъекты отношений в сфере искусственного интеллекта несут ответственность… за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство Российской Федерации, соразмерно степени вины каждого».
При этом для разработчиков и операторов действует презумпция виновности:
> Статья 11.2: «Разработчик модели искусственного интеллекта, оператор системы искусственного интеллекта, владелец сервиса искусственного интеллекта несут ответственность… при условии, что указанные лица заведомо знали или должны были знать о возможности получения такого результата… если в результате следственных действий не будет доказано обратное».
Важный нюанс: если разработчик «предпринял исчерпывающие меры», его могут освободить от ответственности.
> Статья 11.3: «Разработчик… освобождаются от ответственности… в случае, если предприняли исчерпывающие меры к предотвращению получения такого результата и соблюдали требования законодательства Российской Федерации при разработке модели, эксплуатации системы и предоставлении доступа к сервису».
Грань между «исчерпывающими мерами» и «халатностью» будет определять суд.
Пользователь за использование результатов работы ИИ отвечает отдельно:
> Статья 11.4: «Пользователь сервиса искусственного интеллекта несет ответственность… за использование результата, полученного с помощью искусственного интеллекта, нарушающего закон��дательство… когда такой результат является следствием его умышленных действий либо несоблюдения им условий использования».
И основания для освобождения от ответственности:
> Статья 11.5: «Пользователь и/или оператор освобождается от ответственности в случаях, когда вред причинен вследствие:
> а) непреодолимой силы;
> б) умысла потерпевшего;
> в) недостатков объекта… которые не могли быть выявлены…»
Также прописана возможность регресса:
> Статья 11(6): «Оператор системы искусственного интеллекта, возместивший вред… вправе предъявить регрессное требование к разработчику данного объекта, если докажет, что вред возник исключительно вследствие недостатков объекта, которые существовали на момент его передачи оператору».
Всё, что создано нейросетью (текст, видео, аудио), должно быть помечено специальным предупреждением.
Статья 12 обязывает владельцев сервисов ставить метку в машиночитаемом и человекочитаемом формате.
> Статья 12.1: «Владелец сервиса искусственного интеллекта обеспечивает размещение информационного предупреждения пользователя о применении технологий искусственного интеллекта для создания аудио и (или) визуального информационного материала или иного контента».
> Статья 12.2: «Информационное предупреждение… должно размещаться в составе синтезированного, сгенерированного информационного материала в формате, воспринимаемом человеком и машиночитаемом формате».
Крупные площадки (от 100 тыс. пользователей в сутки) должны проверять контент на наличие такой маркировки:
> Статья 12.4: «Лица, указанные в части 1 статьи 10.6 Федерального закона «Об информации…» в случае если их суточная аудитория на территории Российской Федерации составляет более 100 тысяч пользователей, обеспечивают проверку наличия информационного предупреждения… При выявлении факта отсутствия информационного предупреждения… размещают соответствующее информационное предупреждение или обеспечивает удаление синтезированного информационного материала».
Удаление метки после публикации отдельное правонарушение:
> Статья 12.7: «Лица, осуществляющие обработку синтезированного, сгенерированного информационного материала с целью исключения из его состава информационного предупреждения, несут ответственность в соответствии с законодательством Российской Федерации об административных правонарушениях».
Интересно, что пользователь может отказаться от получения метки (например, если ему надоели надписи «сгенерировано нейросетью»). Но отказ должен быть осознанным:
> Статья 12.5: «Договором (соглашением) между пользователем и лицами… может быть предусмотрено отсутствие обязательности размещения информационного предупреждения… Отказ пользователя от получения информационного предупреждения… должен быть предметным, информированным, сознательным и однозначным».
Статья 13 дает ответ: можно, если у вас есть доступ к произведению на законных основаниях.
Разработчики могут использовать защищенные авторским правом объекты для обучения нейросетей без прямого разрешения правообладателя. Это критически важная норма для индустрии.
> Статья 13.5: «Не является нарушением авторских и (или) патентных прав их правообладателей извлечение информации из объектов, защищенных авторскими или патентными правами, включающее в том числе в рамках компьютерной обработки извлечение, сравнение, классификацию и анализ закономерностей, тенденций и корреляций, содержащихся в этих объектах, для изготовления набора данных и (или) обучения искусственного интеллекта при условии, что изготовителем набора данных или разработчиком был получен правомерный экземпляр такого произведения, либо этот объект был доведен до всеобщего сведения».
При этом права на результат (картинку или текст) остаются за пользователем, но только если это «оригинальное творение»:
> Статья 13.1: «Объекты интеллектуальной собственности, созданные путем применения сервисов искусственного интеллекта, охраняются в порядке, предусмотренном Гражданским кодексом Российской Федерации… При этом объектами интеллектуальной деятельности признаются исключительно оригинальные творения, соответствующие критериям охраноспособности».
Владельцы сервисов обязаны информировать пользователей о правилах:
> Статья 13.2а: «…перед началом использования уведомлять пользователей о правилах и ограничениях использования результатов интеллектуальной деятельности, полученных с помощью сервисов искусственного интеллекта».
Если с вами общается бот или решение за вас принимает алгоритм, вас обязаны предупредить.
> Статья 9.1: «Лицо, осуществляющее продажу товаров или оказание услуг с использованием технологий искусственного интеллекта без участия человека в принятии решений о продаже товара или оказании услуги обязано информировать покупателей и потребителей услуг о применении технологий искусственного интеллекта».
> Статья 9.2: «Лицо, использующее технологии искусственного интеллекта с целью принятия автономных (без участия человека) решений, затрагивающих права, обязанности, свободы и законные интересы гражданина, обязано уведомить об этом гражданина».
Право на отказ: в случаях, установленных правительством, вы сможете потребовать оказать услугу без ИИ.
> Статья 9.3: «В случаях, устанавливаемых Правительством Российской Федерации, лица и организации, осуществляющие оказание услуг, обязаны обеспечить гражданину, отказавшемуся от использования технологий искусственного интеллекта в его отношении, возможность получения услуг в форме и порядке, не предусматривающем автономное использование технологий искусственного интеллекта».
Право на обжалование решения госорганов, принятые с помощью ИИ.
> Статья 9.4: «Гражданину должна быть обеспечена возможность досудебного обжалования решений, а также действий (бездействия) органов государственной власти… принятых или совершенных с использованием технологий искусственного интеллекта».
Право на компенсацию: если из-за сбоя ИИ вам причинили вред, вы имеете право на деньги по Гражданскому кодексу.
> Статья 9.5: «Гражданин имеет право на компенсацию вреда, причиненного неправомерным использованием технологий искусственного интеллекта, в порядке, установленном гражданским законодательством Российской Федерации».
Если вы еще здесь и продолжаете читать, вы-герой! Если сил уже мало, то краткая выдержка статьи ждет вас в конце :)
Закон подробно расписывает, что обязаны делать все участники рынка (Статья 10).
Разработчик модели обязан:
> Статья 10.1: «…обеспечить безопасность созданной модели, включая:
> а) исключение функциональных особенностей, способных привести к дискриминации на основе их поведения [4] или личностных характеристик;
> в) документировать архитектуру, логику [5] функционирования и ограничения применяемых моделей…;
> г) проводить моделирование потенциальных рисков».
Оператор системы обязан:
> Статья 10.2: «…д) незамедлительно приостанавливать эксплуатацию объектов с использованием искусственного интеллекта при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу физических или юридических лиц, окружающей среде;
> е) обеспечивать учет инцидентов, связанных с функционированием объектов».
Владелец сервиса обязан:
> Статья 10.3: «…а) определить правила доступа к сервису… и предусмотреть в них прямой запрет на использование такого сервиса в целях, противоречащих законодательству;
> в) информировать пользователей… �� том, что они взаимодействуют с системой искусственного интеллекта».
Особенно интересен пункт для популярных сервисов (более 500 тыс. пользователей в сутки):
> Статья 10.3 г: «Если к сервису в течение суток обращается более пятисот тысяч пользователей сети «Интернет», находящихся на территории Российской Федерации, [владелец сервиса] выполняет обязанности, предусмотренные статьей 10.1 Федерального закона «Об информации…» (то есть закон о «приземлении» и представительстве в РФ).
Пользователь обязан:
> Статья 10.4: «…б) использовать сервисы искусственного интеллекта и модели искусственного интеллекта в целях, не противоречащих законодательству Российской Федерации;
> в) не совершать действий, направленных на обход встроенных механизмов безопасности».
Чтобы российские разработчики не упирались в потолок мощностей, Статья 20 вводит «специальное регулирование» для центров обработки данных и суперкомпьютеров.
> Статья 20.1: «В целях повышения доступности вычислительной инфраструктуры для развития технологий искусственного интеллекта Правительство Российской Федерации вправе утвердить перечень центров обработки данных (суперкомпьютеров), создание и эксплуатация которых, осуществляются в соответствии со специальным регулированием».
Им обещают целый пакет льгот:
> Статья 20.3: «…специальное регулирование, в том числе:
> а) преимущественное технологическое присоединение к электрическим сетям при равных условиях с иными заявителями;
> б) освобождение от платы за технологическое присоединение…;
> г) приобретение электрической энергии (мощности) по регулируемым тарифам (ценам), сниженным…;
> ж) финансирование за счет средств бюджетов бюджетной системы Российской Федерации;
> з) налоговые льготы и иные преференции».
Если ваш дата-центр попадет в специальный перечень правительства, вы будете работать в режиме зеленого коридора. Это попытка решить проблему дефицита GPU в России.
Для объектов критической инфраструктуры дополнительные требования:
> Статья 20.4: «Системы искусственного интеллекта, отнесенные к объектам критической информационной инфраструктуры, могут эксплуатироваться с использованием инфраструктуры центров обработки данных… в случае соответствия… требованиям к сертификации, устанавливаемым уполномоченным органом в области обеспечения безопасности критической информационной инфраструктуры».
1. Тотальное согласование. Статья 2 требует, чтобы любые нормативные акты об ИИ от федеральных органов проходили согласование с несколькими ведомствами.
Это создает риск того, что регулирование будет тормозить инновации на годы.
> Статья 2.4: «Нормативные правовые акты федеральных органов исполнительной власти… подлежат обязательному согласованию с федеральным органом исполнительной власти, осуществляющим функции по выработке [6] и реализации государственной политики и нормативно-правовому регулированию в сфере информационных технологий».
> Статья 2.5: «Нормативные правовые акты… подлежат обязательному согласованию с федеральным органом исполнительной власти, уполномоченным в области противодействия техническим разведкам и технической защиты информации и федеральным органом исполнительной власти, уполномоченным в области обеспечения безопасности».
2. Понятие «эксплуатация уязвимостей человека».
Формулировка, под которую можно подвести таргетированную рекламу, психологические тесты или даже рекомендации контента для подростков.
> Статья 3.14: «эксплуатация уязвимостей человека – использование особенностей физического лица или группы лиц (включая возрастные, психологические, когнитивные, социально-экономические, физические особенности, а также временные состояния) для целенаправленного воздействия на поведение [7], принятие решений или получение несанкционированного доступа к информации, причиняющего или способного причинить вред».
3. Духовно-нравственные ценности. Статья 4 и 19 говорят о необходимости проверять ИИ на соответствие «традиционным ценностям».
> Статья 4.6: «учет и уважение традиционных российских духовно-нравственных ценностей – обеспечение разработки, внедрения и применения технологий искусственного интеллекта на основе таких ценностей как жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память [8] и преемственность поколений, единство народов России».
> Статья 19.2 е: «Правительство Российской Федерации… определяет уполномоченный орган (экспертную организацию) по формированию критериев соответствия моделей, систем, сервисов искусственного интеллекта традиционным российским духовно-нравственным ценностям».
Основная цель закона об ИИ в России это обеспечение технологического суверенитета. Критически важные нейросети должны быть российскими, обучаться в России и на российских данных. Закон не касается сфер обороны и безопасности.
Суверенные модели и реестр
Вводится понятие «национальной модели ИИ» (разработка и обучение только в России, российскими специалистами). Создается «Реестр доверенных моделей». Для госорганов и объектов критической инфраструктуры использование ИИ из этого реестра станет обязательным. Это закрывает госзаказ для западных моделей (OpenAI и др.).
Ответственность за ошибки [9] ИИ
Действует презумпция виновности разработчика: он отвечает, если знал или должен был знать о возможности нарушения.
Освободить от ответственности может только доказательство принятия «исчерпывающих мер» для предотвращения ошибок.
Пользователь сам отвечает за то, как он применил результат, выданный нейросетью.
Требования к контенту и прозрачности
Обязательная маркировка: Весь контент (текст, видео, аудио), созданный ИИ, должен иметь метку в формате, понятном человеку и машине. Крупные площадки (от 100 тыс. пользователей) обязаны проверять контент на наличие такой маркировки и удалять его или маркировать самостоятельно при отсутствии.
Права граждан: Людей должны предупреждать, если с ними общается бот или решение за них принимает алгоритм. Граждане получат право отказаться от взаимодействия с ИИ (в случаях, установленных правительством) и право обжаловать решения госорганов, принятые с помощью ИИ.
Интеллектуальная собственность и данные
Обучение на контенте: Разработчикам разрешено использовать объекты авторского права для обучения нейросетей без прямого согласия правообладателя, но только при условии, что у разработчика есть законный доступ к этому произведению.
Права на результат: Пользователь получает права на сгенерированный контент, но только если это «оригинальное творение».
Льготы и скрытые риски
Льготы для железа. Для суперкомпьютеров и ЦОДов, попавших в специальный перечень правительства, вводятся льготы: упрощенное подключение к сетям, льготные тарифы на электроэнергию, налоговые преференции и возможность госфинансирования.
Риски для бизнеса
Любые новые нормативные акты об ИИ будут проходить долгий путь согласования с несколькими ведомствами, что может сильно затормозить развитие отрасли.
Появился термин «эксплуатация уязвимостей человека», под который потенциально можно подвести таргетированную рекламу или рекомендательные системы.
Закон требует проверять ИИ на соответствие «традиционным ценностям», а правительство создает орган, который будет определять эти критерии.
Вступает в силу закон 1 сентября 2027 года. Время подготовиться есть.
Закон амбициозен и создает новую реальность. С одной стороны, он защищает рынок, стимулирует строительство инфраструктуры и дает индустрии легализацию, а с другой жестко загоняет госсектор в доверенный периметр и вводит механизмы оценки этичности с непрозрачными критериями.
И, вероятно, дальше закон расширится на использование ИИ частным бизнесом.
В следующей части поста сравню данный закон с законом из ЕС, подписывайтесь, чтобы не пропустить.
Ещё больше лайфхаков по использованию ИИ, обзоров нейросетей и последних новостей индустрии в моем тг-канале Первые в ИИ.Ну почти [10]
А как вы считаете, какие нормы закона самые спорные? Делитесь мнением в комментариях!
Автор: klukanova
Источник [11]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/27606
URLs in this post:
[1] интеллекта: http://www.braintools.ru/article/7605
[2] обучения: http://www.braintools.ru/article/5125
[3] сон: http://www.braintools.ru/article/9809
[4] поведения: http://www.braintools.ru/article/9372
[5] логику: http://www.braintools.ru/article/7640
[6] выработке: http://www.braintools.ru/article/5568
[7] поведение: http://www.braintools.ru/article/5593
[8] память: http://www.braintools.ru/article/4140
[9] ошибки: http://www.braintools.ru/article/4192
[10] Первые в ИИ.Ну почти: https://t.me/+sqfxbdPWNhYxZDMy
[11] Источник: https://habr.com/ru/articles/1013968/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1013968
Нажмите здесь для печати.