- BrainTools - https://www.braintools.ru -
13 марта 2026 года Совет ЕС согласовал позицию по Digital Omnibus on AI — пакету упрощения правил EU AI Act. Через пять дней, 18 марта, в России опубликован проект федерального закона «Об основах государственного регулирования применения технологий искусственного интеллекта». Два регуляторных режима с фундаментально разной философией входят в решающую фазу одновременно.
Для IT-компаний из РФ, экспортирующих SaaS- и B2B-продукты на европейский рынок, ситуация осложняется дополнительным фактором — 19 пакетами санкций ЕС против России. С декабря 2023 года запрещена поставка корпоративного ПО в Россию, а с ноября 2025 — предоставление AI-сервисов. EU AI Act добавляет к этому санкционному каркасу ещё один слой требований: экстерриториальное регулирование, обязательную классификацию рисков и штрафы до 35 млн евро.
Статья разбирает механику EU AI Act, его пересечение с санкционным режимом и российским законодательством, а также практические последствия для компаний, работающих на стыке двух юрисдикций.
Regulation (EU) 2024/1689 [1] вступил в силу 1 августа 2024 года и вводит первую в мире всеобъемлющую систему регулирования искусственного интеллекта [2]. Ядро закона — классификация AI-систем по четырём категориям риска с пропорциональной регуляторной нагрузкой.
Запрещённые практики (Unacceptable Risk). С 2 февраля 2025 года полностью запрещены: системы социального скоринга, манипулятивные AI-системы, эксплуатирующие уязвимости пользователей, биометрическая идентификация в реальном времени в общественных местах (с исключениями для правоохранительных органов). Omnibus VII расширил перечень: Совет ЕС добавил генерацию неконсенсуального сексуального контента с помощью ИИ (так называемые nudifier apps). Штраф за нарушение — до 35 млн евро или 7% глобальной выручки, в зависимости от того, что больше.
Высокорисковые системы (High-Risk AI). Кредитный скоринг, HR-решения при найме и увольнении, медицинская диагностика, биометрическая верификация, управление критической инфраструктурой — системы, которые напрямую затрагивают здоровье, безопасность или фундаментальные права граждан ЕС. Перечень конкретных применений зафиксирован в Annex III регламента и включает восемь доменов: от биометрии до правоприменения.
Требования к высокорисковым системам наиболее обширны: система управления рисками (risk management system), требования к данным (data governance), техническая документация, автоматическое логирование событий, обеспечение человеческого контроля (human oversight), точность, устойчивость и кибербезопасность, обязательная регистрация в общеевропейской базе данных. Именно для этой категории Omnibus VII предложил перенести сроки: автономные высокорисковые AI-системы — до 2 декабря 2027 года, системы, встроенные в продукты (медицинские устройства, промышленное оборудование) — до 2 августа 2028 года. Прежний дедлайн — 2 августа 2026 — остаётся в силе, если трилог не завершится вовремя.
Ограниченный риск (Limited Risk). Чат-боты, deepfake-генераторы, системы распознавания эмоций [3]. Единственное обязательство — прозрачность: пользователь должен быть проинформирован о том, что взаимодействует с AI-системой. Сертификация не требуется.
Минимальный риск (Minimal Risk). Спам-фильтры, рекомендательные системы, AI-функции в играх. Никаких дополнительных обязательств. По оценкам Еврокомиссии, сюда попадает большинство AI-систем, уже развёрнутых в ЕС.
Отдельный блок регулирования, вступивший в силу 2 августа 2025 года, касается моделей общего назначения (General-Purpose AI, GPAI) — таких как GPT-x, Claude, Gemini, Llama. Провайдеры GPAI обязаны предоставлять техническую документацию, раскрывать информацию об обучающих данных (включая соблюдение авторских прав) и энергопотреблении при обучении [4].
Модели с затратами на обучение свыше 10^25 FLOPs классифицируются как модели системного риска (GPAI with Systemic Risk). Для них предусмотрен ежегодный независимый аудит, обязанность уведомлять Бюро по ИИ (AI Office) о серьёзных инцидентах без неоправданной задержки (without undue delay), проведение состязательного тестирования (adversarial testing) и оценка модельных рисков.
С 2 августа 2026 года штрафы вступают в полную силу: до 15 млн евро или 3% глобальной выручки за нарушение обязательств по GPAI, до 7,5 млн евро или 1% за предоставление ложной информации регулятору. Для open-source моделей предусмотрены послабления — если модель выпущена под свободной лицензией и не квалифицируется как системный риск, большинство обязательств не применяется.
Digital Omnibus on AI, внесённый Еврокомиссией 19 ноября 2025 года, позиционируется как часть программы снижения административной нагрузки — на 25% к 2029 году для всех компаний и на 35% для малого и среднего бизнеса. CCIA Europe (ассоциация [5], объединяющая Alphabet, Apple и Meta) указала на другую проблему: Еврокомиссия до сих пор не опубликовала финальные разъяснения закона, и без них «представителям индустрии не ясно, как работать дальше».
26 марта 2026 года Европарламент одобрил позицию по AI Omnibus 569 голосами. Трилог — финальные переговоры между Советом, Парламентом и Комиссией — начался в тот же день. Wesley Horion из Pinsent Masons отмечает, что «уже до начала формального трилога видна конвергенция позиций Совета и Парламента» — что повышает шансы на завершение до дедлайна 2 августа 2026 года. Но гарантий нет.
|
Дата |
Что вступает в силу |
|---|---|
|
1 августа 2024 |
EU AI Act вступил в силу |
|
2 февраля 2025 |
Запрет недопустимых AI-практик, AI literacy |
|
2 августа 2025 |
Регулирование GPAI-моделей, создание AI Office |
|
2 августа 2026 |
Штрафы за GPAI; высокорисковые системы (если Omnibus VII не принят) |
|
2 декабря 2027* |
Автономные высокорисковые системы (Omnibus VII) |
|
2 августа 2027 |
Полное применение ко всем AI-системам |
|
2 августа 2028* |
Встроенные высокорисковые системы (Omnibus VII) |
* — при условии успешного завершения трилога.
EU AI Act воспроизводит модель GDPR: география регистрации компании не определяет применимость закона. Регулирование распространяется на любого провайдера (Provider), размещающего AI-систему на рынке ЕС или вводящего её в эксплуатацию на территории ЕС, и на любого эксплуатанта (Deployer) за пределами ЕС, если выходные данные AI-системы используются на территории Евросоюза.
На практике это означает следующее. Компания из Казахстана разрабатывает SaaS-платформу с AI-скорингом для европейских клиентов — она подпадает под EU AI Act как провайдер высокорисковой системы. Стартап из Грузии интегрирует GPT-4 через API в продукт для немецкого заказчика — он становится эксплуатантом (Deployer) с собственной зоной ответственности. Российская компания продаёт рекомендательную систему шведскому ритейлеру — ограниченный или минимальный риск, но обязанность прозрачности остаётся.
Провайдеры высокорисковых AI-систем из-за пределов ЕС обязаны назначить уполномоченного представителя (Authorised Representative) на территории Евросоюза до размещения системы на рынке. Представитель принимает на себя часть compliance-обязательств и выступает контактным лицом для национальных надзорных органов.
Закон выстраивает «каскад правоприменения» (cascade of responsibilities) по всей цепочке создания ценности. Провайдер GPAI-модели (OpenAI, Anthropic, Google) несёт ответственность за прозрачность, документацию и безопасность самой модели. Тот, кто интегрирует эту модель в продукт, становится Deployer и принимает отдельный набор обязательств: проведение due diligence на основе инструкций провайдера, мониторинг работы модели в production, логирование инцидентов, обеспечение human oversight.
Большинство компаний, интегрирующих стороннюю GPAI-модель в свой продукт, квалифицируются как Deployer. Переклассификация в Provider происходит при «существенной модификации» (substantial modification) модели — например, при масштабном fine-tuning, меняющем поведение [6] модели. Точные критерии переклассификации пока не зафиксированы в финальных руководствах AI Office.
Для компаний за пределами ЕС работают три косвенных механизма блокировки:
B2B-клиенты. Европейские заказчики сами подпадают под AI Act и обязаны работать только с комплаентными поставщиками AI-систем. Несоответствие EU AI Act — основание для одностороннего расторжения контракта. Крупные европейские компании уже включают AI Act compliance в стандартные условия закупки.
Платёжная и облачная инфраструктура. Stripe, PayPal, AWS, Azure — все подчиняются европейскому регулированию. Блокировка некомплаентного контрагента — вопрос времени, а не принципиальной возможности. Для SaaS-компаний потеря платёжного канала равнозначна потере рынка.
Каналы дистрибуции. App Store и Google Play обязаны обеспечивать соответствие размещённых приложений действующему законодательству ЕС. AI Act добавляет к этим требованиям проверку классификации рисков и прозрачности AI-компонентов.
Marilena Raouna, заместитель министра по европейским делам Кипра (председательство в Совете ЕС), заявила, что упрощение правил ИИ «критически важно для обеспечения цифрового суверенитета ЕС». Механизм принуждения выходит за рамки штрафов — потеря доступа к B2B-клиентам, платёжной инфраструктуре и каналам дистрибуции бьёт по бизнесу быстрее любого судебного разбирательства.
Для российских IT-компаний EU AI Act накладывается на действующий санкционный каркас. К ноябрю 2025 года ЕС принял 19 пакетов санкций против России. Под ограничительные меры (asset freeze) попали более 2 700 физических и юридических лиц. Два пакета затрагивают IT-сектор и AI напрямую.
Статья 5n(2b) Regulation 833/2014 [7], дополненная Annex XXXIX, запрещает продажу, поставку, передачу, экспорт и предоставление в Россию следующих категорий ПО:
Управление предприятием: ERP, CRM, BI, SCM, EDW, CMMS, PLM, project management
Учёт и логистика: бухгалтерское ПО, fleet management, HR-системы
Проектирование и производство: CAD, CAM, BIM, ETO
SaaS-модели подпадают под запрет наравне с on-premise поставками — Еврокомиссия подтвердила это в FAQ от 6 февраля 2024 года. Запрет распространяется на обновления ПО. Исключение для внутригрупповых услуг (когда западная компания предоставляет ПО своей российской «дочке») отменено с 20 июня 2024 года. Германия (BAFA) выпустила генеральную лицензию, позволяющую продолжить внутригрупповые поставки — Еврокомиссия поставила под сомнение её соответствие санкционному законодательству ЕС.
Для экспорта товаров из расширенного Annex XL (электронные компоненты, навигационное оборудование) введена обязательная контрактная оговорка «no Russia» — экспортёры обязаны «контрактно запретить реэкспорт в Россию и реэкспорт для использования в России» при поставках в третьи страны, не входящие в список стран-партнёров (Annex VIII).
19-й пакет, принятый 23 октября 2025 года, расширил ограничения на профессиональные услуги для России. С 25 ноября 2025 года запрещено предоставление:
AI-сервисов: доступ к моделям искусственного интеллекта для обучения, дообучки (fine-tuning) и инференса
Высокопроизводительных вычислительных сервисов (HPC)
Квантовых вычислительных сервисов
Исключение сделано для участия российских граждан в международных open-source проектах — единственная «лазейка» для легального доступа к европейским AI-ресурсам. В этом же пакете впервые в истории под санкции попала юридическая фирма (Maxima Legal) — за содействие в обходе ограничений через предоставление фальсифицированных документов. Сигнал для рынка юридических услуг: сами посредники и консультанты теперь под прицелом.
Санкционный режим работает в одном направлении: запрещает поставку технологий и сервисов в Россию. Прямого запрета для российских компаний продавать собственные продукты в ЕС не установлено — при условии, что компания и её бенефициары не находятся в санкционных списках. На практике возникает каскад проблем, превращающих формальное отсутствие запрета в фактическую блокировку:
Банковская инфраструктура. Открытие счёта в европейском банке для расчётов с клиентами затруднено из-за процедур усиленной проверки (enhanced due diligence) для любых российских юрлиц. Ряд банков отказывает российским контрагентам в обслуживании вне зависимости от санкционного статуса — как мера управления репутационным риском.
Уполномоченный представитель. AI Act требует от non-EU провайдеров высокорисковых систем назначить Authorised Representative в ЕС. Это предполагает договорные отношения с европейским юрлицом, которое берёт на себя compliance-обязательства. Найти европейского партнёра, готового представлять российскую компанию в текущих условиях — нетривиальная задача.
Облачная инфраструктура. AI Act требует мониторинга и логирования работы AI-системы — инфраструктура для этого, как правило, размещается на территории ЕС. Одновременно 19-й пакет санкций запрещает предоставление HPC-сервисов для России. Если российская компания размещает AI-систему на AWS eu-west для европейских клиентов — попадает ли она под этот запрет? Формальная логика [8]: запрет касается предоставления сервисов для России, а не использования российской компанией сервисов в ЕС. Но compliance-департаменты облачных провайдеров интерпретируют ограничения широко.
Статья 5r. Компании с российским владением более 40% обязаны ежеквартально отчитываться о кумулятивных переводах свыше 100 000 евро из ЕС (с 1 мая 2024 года). Кредитные и финансовые институты, в свою очередь, отчитываются о таких переводах раз в полугодие (с 1 июля 2024 года). Двухуровневый контроль финансовых потоков затрудняет операционную деятельность.
Российская IT-компания, экспортирующая SaaS с AI-компонентом в ЕС, оказывается в зоне двойной правовой неопределённости: EU AI Act предъявляет требования, практическое выполнение которых затруднено или вовсе заблокировано санкционным режимом.
Проект федерального закона от 18 марта 2026 года строится на принципе технологического суверенитета — концепции, диаметрально противоположной риск-ориентированной модели ЕС. Вступление в силу — 1 сентября 2027 года.
Центральное понятие — «суверенная модель ИИ» (статья 7.2): модель, все стадии разработки и обучения которой осуществлены исключительно на территории Российской Федерации, гражданами РФ и российскими юридическими лицами, на российских данных. Параллельно создаётся Реестр доверенных моделей ИИ — государственные органы и объекты критической информационной инфраструктуры (КИИ) обязаны использовать только модели из реестра. Включение в реестр требует подтверждения безопасности от ФСБ и ФСТЭК, а также размещения данных исключительно на территории РФ.
Российский закон вводит презумпцию виновности разработчика/оператора ИИ: ответственность наступает, если субъект «заведомо знал или должен был знать» о возможности нарушения. Освобождение от ответственности возможно только при доказательстве «исчерпывающих мер» по предотвращению вреда (статья 11). Обязательная маркировка AI-контента — текста, видео, аудио — в человекочитаемом и машиночитаемом формате. Площадки с аудиторией свыше 100 тыс. пользователей обязаны проверять наличие маркировки (статья 12). Граждане получают право отказаться от взаимодействия с ИИ и обжаловать решения госорганов, принятые с помощью AI-систем. Проверка моделей на соответствие «традиционным российским духовно-нравственным ценностям» — правительство создаёт уполномоченный орган для определения критериев (статья 4.6, 19.2е).
Для сервисов с аудиторией свыше 500 тыс. пользователей в сутки на территории РФ вводится обязанность «приземления» — аналог закона о представительстве (статья 10.3г).
|
Параметр |
EU AI Act |
Российский закон об ИИ |
|---|---|---|
|
Философия |
Защита фундаментальных прав |
Технологический суверенитет |
|
Подход к рискам |
4 категории (запрещённый → минимальный) |
Реестр доверенных моделей, суверенные модели |
|
Территория действия |
Экстерриториальный (аналог GDPR) |
Территория РФ; «приземление» для крупных сервисов |
|
Штрафы |
До 35 млн евро / 7% оборота |
Не детализированы в проекте |
|
GPAI-регулирование |
Техдокументация, аудит для моделей >10^25 FLOPs |
Суверенные модели, сертификация ФСБ/ФСТЭК |
|
IP и обучающие данные |
TDM разрешён, правообладатель может отказать (opt-out) |
TDM легализован, механизм opt-out отсутствует |
|
AI-контент |
Маркировка для deepfake и ограниченного риска |
Обязательная маркировка всего AI-контента |
|
Вступление в силу |
1 августа 2024, поэтапно до 2027 |
1 сентября 2027 |
Два закона создают разнонаправленное давление на компании, работающие одновременно на российском и европейском рынках. EU AI Act требует прозрачности обучающих данных, документирования алгоритмов принятия решений, обеспечения права на обжалование. Российский закон требует использования суверенных моделей для госсектора и КИИ, сертификации безопасности ФСБ, проверки на «традиционные ценности». Одна и та же компания может оказаться обязана вести открытую документацию для европейского регулятора и одновременно ограничивать раскрытие информации о моделях, сертифицированных российскими спецслужбами.
Различия в подходе к интеллектуальной собственности добавляют ещё один слой сложности. EU AI Act разрешает text and data mining (TDM) для обучения моделей, но предоставляет правообладателям механизм отказа (opt-out) — правообладатель может явно запретить использование своих произведений. Российский закон легализует TDM при наличии правомерного доступа к произведению, но механизма opt-out не предусматривает. Компания, обучающая модель на данных, собранных с учётом opt-out для ЕС, не может использовать ту же модель в России без дополнительной проверки — и наоборот.
Nils Rauer, партнёр Pinsent Masons (Франкфурт), отмечает: индустрия просила отсрочку дедлайна по высокорисковым системам, поскольку необходимые стандарты и руководства задерживались. Законодатели услышали и предоставили отсрочку через Omnibus VII. Но если трилог не завершится до 2 августа 2026 года, текущий дедлайн останется в силе — компаниям стоит готовиться к обоим сценариям.
Для российских IT-компаний, сохраняющих присутствие на европейском рынке, ситуация распадается на несколько уровней.
Юридическая структура. Работа через европейское юрлицо (дочерняя компания или партнёрская структура) снимает часть проблем: открытие счетов, назначение Authorised Representative, размещение инфраструктуры на территории ЕС. Но создаёт новые — compliance с санкционными требованиями к структурам с российским бенефициарным владением. Двухуровневый контроль финансовых потоков по статье 5r (см. раздел о санкциях) распространяется на любые EU-структуры с российским владением более 40%. Смена юрисдикции не устраняет санкционный риск, а перемещает его.
Классификация AI-систем. Аудит собственных AI-продуктов на предмет попадания в категорию высокорисковых — отправная точка любой compliance-стратегии. Кредитный скоринг, HR-автоматизация, медицинская аналитика — всё это high-risk с полным набором обязательств. Рекомендательные системы и чат-боты — ограниченный или минимальный риск с требованиями к прозрачности. Классификация определяет объём инвестиций в compliance.
Выбор GPAI-провайдера. Если продукт использует стороннюю LLM (OpenAI, Anthropic, Google), компания квалифицируется как Deployer. Обязанности Deployer: анализ инструкций провайдера модели, мониторинг работы модели, договорная защита, обеспечение human oversight. Code of Practice для GPAI, опубликованный Еврокомиссией в июле 2025 года [9], — добровольный стандарт, который служит индикатором зрелости вендора и готовности к сотрудничеству с downstream-разработчиками.
Open-source инструменты для compliance. Экосистема open-source инструментов формируется. VerifyWise [10] (247 звёзд на GitHub, активная разработка) — платформа AI governance с поддержкой EU AI Act, ISO 42001 и NIST AI RMF. EuConform [11] (107 звёзд) — инструмент классификации рисков AI-систем и тестирования на предвзятость (bias testing). Stanford CRFM разработал методологию оценки соответствия [12] foundation models требованиям AI Act. Aulite [13] — drop-in HTTP proxy для мониторинга AI-взаимодействий на предмет регуляторных рисков: 143 правила по 8 доменам Annex III, tamper-proof аудит-трейл и генерация юридических отчётов. Экосистема на ранней стадии (максимум 247 звёзд у самого популярного проекта), но уже позволяет автоматизировать часть compliance-процессов без покупки enterprise-решений.
EU AI Act — действующий закон с конкретными дедлайнами, штрафами и механизмами принуждения, который работает экстерриториально и затрагивает любую компанию, чьи AI-продукты используются в Евросоюзе. Для компаний из РФ, работающих с европейским рынком, на регуляторные требования AI Act накладываются санкционные ограничения и собственное российское законодательство об ИИ.
Источники:
Council agrees position to streamline rules on Artificial Intelligence — Consilium, 13.03.2026 [14]
EU AI simplification package reaches critical milestone — Pinsent Masons, 26.03.2026 [15]
EU Adopts 19th Russia Sanctions Package — Skadden, 11.2025 [17]
EU AI Act 2026: What Non-EU Companies Need to Know — Sitnik AI, 16.02.2026 [18]
Автор: Rummar
Источник [19]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/27838
URLs in this post:
[1] Regulation (EU) 2024/1689: https://eur-lex.europa.eu/eli/reg/2024/1689/oj
[2] интеллекта: http://www.braintools.ru/article/7605
[3] эмоций: http://www.braintools.ru/article/9540
[4] обучении: http://www.braintools.ru/article/5125
[5] ассоциация: http://www.braintools.ru/article/621
[6] поведение: http://www.braintools.ru/article/9372
[7] Regulation 833/2014: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02014R0833-20240101
[8] логика: http://www.braintools.ru/article/7640
[9] опубликованный Еврокомиссией в июле 2025 года: https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
[10] VerifyWise: https://github.com/verifywise-ai/verifywise
[11] EuConform: https://github.com/Hiepler/EuConform
[12] методологию оценки соответствия: https://github.com/stanford-crfm/EUAIActJune15
[13] Aulite: https://github.com/el1ght/aulite
[14] Council agrees position to streamline rules on Artificial Intelligence — Consilium, 13.03.2026: https://www.consilium.europa.eu/en/press/press-releases/2026/03/13/council-agrees-position-to-streamline-rules-on-artificial-intelligence/
[15] EU AI simplification package reaches critical milestone — Pinsent Masons, 26.03.2026: https://www.pinsentmasons.com/out-law/news/eu-ai-simplification-package-reaches-critical-milestone
[16] Sanctions Update: EU Tightens Restrictions on Professional Services and Business-Critical Software for Russia — Latham & Watkins, 25.04.2024: https://www.lw.com/en/insights/2024/04/sanctions-update-eu-tightens-restrictions-on-professional-services-business-critical-software-russia
[17] EU Adopts 19th Russia Sanctions Package — Skadden, 11.2025: https://www.skadden.com/insights/publications/2025/11/eu-adopts-19th-sanctions-package
[18] EU AI Act 2026: What Non-EU Companies Need to Know — Sitnik AI, 16.02.2026: https://sitnik.ai/blog/eu-ai-act-2026-what-non-eu-companies-need-to-know/
[19] Источник: https://habr.com/ru/articles/1015812/?utm_source=habrahabr&utm_medium=rss&utm_campaign=1015812
Нажмите здесь для печати.