Что изменит законопроект Минцифры о регулировании ИИ?

Логотип компании
Что изменит законопроект Минцифры о регулировании ИИ?
Изображение: Shutterstock / vanitjan
Минцифры опубликовало для общественного обсуждения законопроект «Об основах госрегулирования сфер применения технологий искусственного интеллекта». Документ впервые на законодательном уровне закрепляет правила разработки и использования искусственного интеллекта (ИИ) в России - от маркировки сгенерированного контента до ответственности за вред, причиненный нейросетями.

Авторы проекта предлагают считать искусственным интеллектом комплекс технологий, имитирующих когнитивные функции человека, включая самообучение. Важно, что закон впервые четко разделяет всех участников процесса, в нем упоминаются такие категории как разработчик модели, оператор системы, владелец сервиса и пользователь. За каждым закрепляются свои права и обязанности.

Что именно предлагают регулировать

В законопроекте вводится градация моделей ИИ. Суверенными или национальными предлагается считать те, что полностью созданы в России силами российских граждан или юрлиц с использованием отечественных данных. Для них обещают господдержку и благоприятные условия развития. Доверенными моделями станут те, которые после проверки ФСБ и ФСТЭК разрешат использовать в госинформсистемах и критической инфраструктуре - в энергетике, на транспорте, в медицине и финансах. Их включат в специальный реестр, и правительство в перспективе может сделать их обязательными для определенных объектов.

Обязанности разработчиков и владельцев сервисов прописаны достаточно подробно. Разработчики должны исключать функции, способные привести к дискриминации людей, предупреждать о запрете использования модели в незаконных целях и моделировать потенциальные риски. Операторы обязаны тестировать системы, предоставлять инструкции по безопасной эксплуатации и приостанавливать работу при угрозе вреда жизни или безопасности государства.

Наибольшая нагрузка ложится на владельцев ИИ-сервисов. Они должны не допускать использования своих платформ в противоправных целях и ограничивать создание материалов, противоречащих российскому законодательству. Для сервисов с аудиторией более 500 тысяч человек в сутки вступают в силу требования «закона Яровой» о хранении данных пользователей. Кроме того, владельцы обязаны маркировать созданный ИИ контент, а крупные платформы с аудиторией от 100 тысяч человек должны следить за наличием такой маркировки и удалять непромаркированные материалы.

В договорах с разработчиками предписано согласовывать, кому принадлежат права на результаты интеллектуальной деятельности, созданные с помощью ИИ, с учетом прав авторов оригинальных произведений. В пользовательских соглашениях также должно быть прописано, кому достается сгенерированный контент.

Пользователи в свою очередь обязуются соблюдать правила доступа, не использовать сервисы в незаконных целях и не пытаться обходить встроенные механизмы безопасности. При использовании сгенерированного контента они должны уважать права и интересы третьих лиц.

Отдельно прописана ответственность. Если результат работы ИИ нарушает законодательство, отвечать будут разработчик модели, оператор системы, владелец сервиса и пользователь - соразмерно степени вины каждого. Разработчик, оператор и владелец ответят, если они знали или должны были знать о возможности такого исхода. Освободить от ответственности может только принятие всех исчерпывающих мер, соблюдение закона либо действие непреодолимой силы или умысел потерпевшего. Конкретные наказания в законопроекте не прописаны, там говорится лишь об административной и уголовной ответственности.

Энергия для развития

Значительный блок документа посвящен поддержке инфраструктуры. Правительство сможет утвердить перечень центров обработки данных для ИИ, которые получат особые условия. Речь идет о долгосрочных договорах на электроэнергию с фиксированным предельным уровнем цены, освобождении от платы за технологическое присоединение, упрощенном порядке согласования схем электроснабжения и праве покупать энергию по регулируемым тарифам ниже уровня промышленных потребителей. Также для таких ЦОДов предусмотрены бюджетное финансирование и налоговые льготы.

Взгляд за пределы страны

В законопроекте заложены и основы международного сотрудничества. Декларируется принцип равных прав и возможностей наций в разработке ИИ. Россия намерена формировать единое пространство доверенных технологий при своей лидирующей роли, продвигать отечественные стандарты и технологии за рубежом, а также помогать партнерам повышать технологический потенциал. При этом вводится понятие трансграничных технологий ИИ, функционирование которых может быть запрещено или ограничено в случаях, установленных законодательством.

Документ носит рамочный характер и не распространяется на сферы обороны, безопасности государства и охраны правопорядка - там особенности применения ИИ определят отдельно. Авторы признают, что из-за рамочности закона пока невозможно точно оценить затраты на исполнение требований и все риски. Но главный посыл ясен: отсутствие системного регулирования и правовая неопределенность сдерживают развитие технологий и создают угрозу безопасности граждан, так как ИИ может применяться без необходимых мер предосторожности.

Какие последствия для общества принесет новый закон?

Принятие этого закона, если он вступит в силу, постепенно изменит повседневную жизнь россиян, и в первую очередь люди начнут замечать маркировку контента. Видеоролики, картинки и тексты, созданные нейросетями, будут обязаны содержать специальные пометки. Крупные социальные сети и платформы возьмут на себя функцию контроля, что снизит риск случайного распространения сгенерированных материалов без предупреждения, а обычные пользователи смогут отличать реальные события от искусно сфабрикованных дипфейков.

Важным последствием станет появление у людей права требовать обслуживания без участия искусственного интеллекта. Если человек не хочет взаимодействовать с алгоритмом при получении государственных или муниципальных услуг, он сможет настоять на «человеческом» решении. Также появится механизм досудебного оспаривания решений госорганов, принятых с использованием ИИ. Это снижает риск ситуаций, когда бездушная программа ошибается, а исправить ошибку оказывается некому.

С другой стороны, внедрение четких правил для разработчиков и владельцев сервисов должно сделать ИИ более безопасным. Запрет на дискриминационные алгоритмы защитит людей от необоснованных отказов в кредитах или услугах, основанных на несовершенных математических моделях. А распределение ответственности между создателями, операторами и пользователями за вред, причиненный ИИ, создаст правовую основу для компенсаций. Если беспилотное такси попадет в аварию или медицинский алгоритм поставит неверный диагноз, пострадавший сможет взыскать ущерб с конкретных виновных лиц.

В то же время неизбежны и издержки. Введение обязательной маркировки и требований к хранению данных увеличит затраты бизнеса, что может отразиться на стоимости цифровых сервисов для конечных потребителей. Российские пользователи могут столкнуться с сужением выбора зарубежных ИИ-сервисов, если те не захотят или не смогут выполнять требования по проверке безопасности и локализации данных. Это риск фрагментации глобального цифрового пространства, когда одни и те же технологии работают по-разному в разных странах.

Государственная поддержка суверенных моделей и центров обработки данных, льготы на электроэнергию должны стимулировать строительство мощной вычислительной инфраструктуры внутри страны. В перспективе это означает появление новых рабочих мест, развитие компетенций и меньшую зависимость от импортных технологий. Однако успех этой политики будет зависеть от того, насколько гибко и своевременно будут приниматься подзаконные акты и насколько реально работающими окажутся механизмы защиты прав простых людей.

Опубликовано 19.03.2026

Похожие статьи