СМИ: «Минцифры РФ создаст полигон для проверки ИИ на безопасность». IT-компании.. IT-компании. Законодательство в IT.. IT-компании. Законодательство в IT. искусственный интеллект.. IT-компании. Законодательство в IT. искусственный интеллект. кии.. IT-компании. Законодательство в IT. искусственный интеллект. кии. минцифры рф.

Минцифры России создаст специальный полигон для тестирования искусственного интеллекта на безопасность. Это нужно для внедрения ИИ‑систем на критически важных объектах страны. Системы искусственного интеллекта высокого и критического уровня риска должны будут получать сертификат на соответствие требованиям безопасности. Его выдают Федеральная служба по техническому и эксперт��ому контролю (ФСТЭК) и Федеральная служба безопасности (ФСБ) России. Об этом сообщило издание РБК со ссылкой на текст правительственного законопроекта о применении систем искусственного интеллекта органами публичной власти.

Тестирование ИИ-систем на соответствие этим требованиям будет проходить на специальном полигоне Минцифры. Об этом сообщили источники на IT-рынке. Если тестирование пройдёт успешно, системы допустят к использованию на объектах критической информационной инфраструктуры. К ней относятся сети связи и информационные системы госорганов, энергетических, транспортных, финансовых и телекоммуникационных компаний. С предложением создать полигон для тестирования к министерству пришли игроки рынка информационной безопасности.

Новый законопроект вводит четыре уровня критичности ИИ-систем. Минимальный уровень присваивается системам, которые не оказывают существенного влияния на права и безопасность. Это могут быть рекомендательные системы. Ограниченный уровень получают системы, которые должны сообщать пользователям о том, что они работают с нейросетью. Высокий уровень присваивается системам, которые используются на объектах критической информационной инфраструктуры. Критический уровень получают системы, которые угрожают жизни или здоровью человека, безопасности государства, а также разработки, способные принимать решения без вмешательства человека.

Определять уровень критичности той или иной системы будет Национальный центр искусственного ��нтеллекта в сфере госуправления при правительстве. Центр также будет вести реестр систем, допущенных к критической информационной инфраструктуре. Требования для получения обязательного сертификата ФСБ и ФСТЭК для критических систем и систем с высоким уровнем риска установят позже отдельным документом. Одним из требований станет наличие ИИ-системы в реестре российского или евразийского программного обеспечения.

Законопроект также вводит запрет на использование на критической информационной инфраструктуре ИИ-систем, права на которые принадлежат иностранным лицам. По мнению авторов документа, такие меры обеспечат технологический суверенитет. Они также защитят от риска передачи ценных данных спецслужбам и разведке недружественных стран.

Представитель Минцифры заявил, что министерство в настоящее время не разрабатывает законопроект, связанный с подобным полигоном. От дальнейших комментариев он отказался.

По оценке аналитической компании Smart Ranking, в 2025 году объём рынка искусственного интеллекта в России вырос на 25–30 процентов и составил 1,9 триллиона рублей. При этом 95 процентов выручки от монетизации искусственного интеллекта пришлось на пять крупнейших компаний: «Яндекс», «Сбер», «Т-Технологии», VK и «Лаборатория Касперского».

Вопрос необходимости регулирования работы искусственного интеллекта в России начали активно обсуждать в 2024 году. В начале 2025 года вице-премьер Дмитрий Григоренко заявил, что правительство в ближайшие два года не планирует вводить законодательство для этой сферы. В феврале этого года представитель аппарата ��митрия Григоренко сообщил, что законопроект о регулировании искусственного интеллекта будет внесён на обсуждение до конца месяца. Документ будет рамочным, введёт базовые для отрасли понятия и не будет ограничивать компании в развитии искусственного интеллекта.

Более жёстким регулирование будет для отраслей, от которых зависит безопасность граждан и государства: медицины, критической инфраструктуры, обороны, госбезопасности и госуправления. Для систем, которые используются в этих сферах, введут требования о регистрации компании-разработчика в России и наличии центров обработки данных в стране. Модель должна быть российской, числиться в специальном реестре, обучаться на российских данных, проходить проверки качества и безопасности и сертификацию.

Законопроектом также планируют ввести ответственность пользователей за распространение контента, созданного искусственным интеллектом. Это станет отягчающим обстоятельством при вмешательстве в выборы, умышленной манипуляции и подрыве доверия к институтам власти. Операторов ИИ-моделей обяжут сообщать пользователям о взаимодействии с искусственным интеллектом и маркировать созданный им контент. Также планируется закрепить авторские права разработчиков и владельцев данных на ИИ-продукты при наличии творческого вклада.

Летом 2025 года был опубликован законопроект о проведении эксперимента по внедрению генеративного искусственного интеллекта в госуправлении. Технологию будут использовать для обработки документов, анализа данных и работы с типовыми обращениями граждан, для проверки резюме кандидатов на госслужбу и анализа законопроектов Госдумы на ошибки.

Предложение ввести обязательную сертификацию отдельных ИИ‑систем ранее озвучила рабочая группа по разработке регулирования искусственного интеллекта. В неё вошли представители крупных российских банков, компаний, вузов и различных объединений. Группа предлагала ввести категории для систем по уровню риска. Системы с неприемлемым уровнем риска, создающие угрозу безопасности личности, общества и государства, предлагалось запретить. Для систем с высоким уровнем риска предлагалось ввести обязательную госрегистрацию и сертификацию. Для систем с ограниченным уровнем риска предлагали ввести внутренний контроль качества и добровольную сертификацию.

Автор: Lexx_Nimofff

Источник

Rambler's Top100