Деструктивный контент и дипфейки: как власти будут бороться с мошенничеством в сети

Логотип компании
06.06.2025
В Госдуме разрабатывается комплексный пакет законодательных инициатив для борьбы с мошенническим и деструктивным ИИ-контентом, включая меры по его маркировке и блокировке. Эксперты поддерживают инициативу, но предупреждают о рисках произвольного применения закона из-за размытости понятия «деструктивный контент» и подчеркивают необходимость четких критериев и прозрачных механизмов регулирования.

В Госдуме разрабатывается комплексный пакет законодательных инициатив, направленных на корректировку закона «Об информации» с учетом новых вызовов, связанных с развитием искусственного интеллекта. «Известия» узнали, что одной из ключевых задач, поставленных перед законодателями, является выработка механизмов, позволяющих оперативно выявлять и блокировать в интернете мошеннические материалы, созданные при помощи ИИ-технологий.

Как сообщил Андрей Свинцов, зампред думского комитета по вопросам информационной политики, информационных технологий и связи, в рамках работы профильной группы обсуждаются предложения по созданию системы маркировки ИИ-контента. Речь идет, в частности, о возможности блокировки деструктивных материалов, сгенерированных нейросетями, еще до вынесения судебного решения. Он подчеркнул, что необходимость в таких мерах обусловлена растущей угрозой использования подобных материалов в целях вымогательства, распространения клеветы и других противоправных действий. Поправки планируется внести на рассмотрение в текущем году.

В борьбе с фейками и дипфейками планируется активно задействовать компании, специализирующиеся на кибербезопасности и защите от хакерских атак, рассказала Валерия Рытвина, основатель Совет блогеров. Она уверена, что потенциал российских ИТ-специалистов позволяет сформировать эффективный альянс между государственными структурами, экспертным сообществом и общественными объединениями.

Что такое deepfake и почему это проблема?
Фейковые материалы подрывают общественное доверие, дезориентируют людей и могут представлять реальную угрозу, рассказала основательница коммуникационного агентства Breaking Trends, секретарь Союза журналистов России Юлия Загитова. Она отмечает, что важна не только блокировка, но и наличие четких процедур — от юридических определений до прозрачных механизмов обжалования решений. И предостерегает от рисков произвольного применения закона, которые могут затронуть добросовестных журналистов и экспертов, если не будет должной правовой точности.

Параллельно необходимо развивать просветительскую деятельность — объяснять пользователям, как отличать фейки, рассказывать о принципах работы ИИ и куда обращаться при столкновении с дезинформацией. При грамотной реализации, основанной на профессиональной экспертизе и уважении к правам пользователей, инициатива может стать важным шагом в сторону более защищенного цифрового пространства.

Тем не менее, пока сложно дать однозначную оценку предлагаемым мерам, отметили в юридической компании «Рустам Курмаев и партнеры». Многое зависит от того, как будет трактоваться понятие «деструктивный контент» и каким образом будет осуществляться его мониторинг.

В агентстве Heads’made также выразили обеспокоенность потенциальной размытостью критериев: если не определить их четко и не закрепить ответственность за принятие решений за авторитетным и компетентным органом, можно допустить ошибочное блокирование добросовестного, в том числе сатирического, контента. Борьба с фейками должна включать не только карательные меры, но и формирование культуры цифровой гигиены — от обязательной маркировки ИИ-материалов до продвижения надежных информационных источников.

Похожие статьи