Деструктивный контент и дипфейки: как власти будут бороться с мошенничеством в сети
В Госдуме разрабатывается комплексный пакет законодательных инициатив, направленных на корректировку закона «Об информации» с учетом новых вызовов, связанных с развитием искусственного интеллекта. «Известия» узнали, что одной из ключевых задач, поставленных перед законодателями, является выработка механизмов, позволяющих оперативно выявлять и блокировать в интернете мошеннические материалы, созданные при помощи ИИ-технологий.
Как сообщил Андрей Свинцов, зампред думского комитета по вопросам информационной политики, информационных технологий и связи, в рамках работы профильной группы обсуждаются предложения по созданию системы маркировки ИИ-контента. Речь идет, в частности, о возможности блокировки деструктивных материалов, сгенерированных нейросетями, еще до вынесения судебного решения. Он подчеркнул, что необходимость в таких мерах обусловлена растущей угрозой использования подобных материалов в целях вымогательства, распространения клеветы и других противоправных действий. Поправки планируется внести на рассмотрение в текущем году.
В борьбе с фейками и дипфейками планируется активно задействовать компании, специализирующиеся на кибербезопасности и защите от хакерских атак, рассказала Валерия Рытвина, основатель Совет блогеров. Она уверена, что потенциал российских ИТ-специалистов позволяет сформировать эффективный альянс между государственными структурами, экспертным сообществом и общественными объединениями.
Фейковые материалы подрывают общественное доверие, дезориентируют людей и могут представлять реальную угрозу, рассказала основательница коммуникационного агентства Breaking Trends, секретарь Союза журналистов России Юлия Загитова. Она отмечает, что важна не только блокировка, но и наличие четких процедур — от юридических определений до прозрачных механизмов обжалования решений. И предостерегает от рисков произвольного применения закона, которые могут затронуть добросовестных журналистов и экспертов, если не будет должной правовой точности.
Параллельно необходимо развивать просветительскую деятельность — объяснять пользователям, как отличать фейки, рассказывать о принципах работы ИИ и куда обращаться при столкновении с дезинформацией. При грамотной реализации, основанной на профессиональной экспертизе и уважении к правам пользователей, инициатива может стать важным шагом в сторону более защищенного цифрового пространства.
Тем не менее, пока сложно дать однозначную оценку предлагаемым мерам, отметили в юридической компании «Рустам Курмаев и партнеры». Многое зависит от того, как будет трактоваться понятие «деструктивный контент» и каким образом будет осуществляться его мониторинг.
В агентстве Heads’made также выразили обеспокоенность потенциальной размытостью критериев: если не определить их четко и не закрепить ответственность за принятие решений за авторитетным и компетентным органом, можно допустить ошибочное блокирование добросовестного, в том числе сатирического, контента. Борьба с фейками должна включать не только карательные меры, но и формирование культуры цифровой гигиены — от обязательной маркировки ИИ-материалов до продвижения надежных информационных источников.