Разработчики ИИ будут в ответе за влияние алгоритмов на людей

Логотип компании
16.03.2026
Разработчики ИИ будут в ответе за влияние алгоритмов на людей
AI
Минцифры готовит законопроект, который обяжет разработчиков и операторов систем искусственного интеллекта предупреждать пользователей о недопустимости манипулирования поведением людей с помощью нейросетей. Эксперты отмечают, что такие меры могут помочь снизить риски злоупотреблений, однако предупреждают о сложности их реализации и возможном влиянии на работу рекомендательных сервисов и персонализированной рекламы.

Законопроект, посвященный регулированию технологий ИИ, предлагает обязать разработчиков систем ИИ предупреждать пользователей о недопустимости применения таких технологий для манипулирования поведением и эксплуатации уязвимостей человека.

В документе разъясняется, что подразумевается под эксплуатацией уязвимостей человека. Речь идет о применении ИИ для воздействия на людей с учетом состояний — например, возраста, социального положения, психологического состояния или иных факторов. Подобное использование ИИ может быть направлено на то, чтобы повлиять на поведение человека, подтолкнуть его к определенным решениям или получить доступ к информации без его явного согласия.

ИИ под присмотром, но не под замком: контуры будущего закона

При этом не уточняется, каким именно категориям пользователей должны направляться предупреждения о недопустимости манипуляций с помощью ИИ. Также в документе отсутствуют конкретные примеры действий, которые могут считаться нарушением, и не прописаны возможные меры ответственности.

В Минцифры пояснили, что проект закона пока находится на стадии обсуждения в заинтересованных ведомствах. Финальная версия документа еще не сформирована, поэтому говорить о конкретных нормах преждевременно.

Эксперты в целом признают, что попытки регулировать использование ИИ оправданы, поскольку эти технологии действительно способны влиять на поведение людей. Нейросети подбирают персонализированный контент — рекомендации, сообщения или интерфейсные решения, которые могут повышать вероятность того или иного действия. Именно поэтому, считают специалисты, ответственность за возможные манипуляции должна лежать прежде всего на разработчиках и операторах таких систем — компаниях, которые создают и внедряют ИИ в сервисы и приложения.

При этом эксперты указывают, что искусственный интеллект может использоваться не только в коммерческих целях, например для продвижения товаров и услуг, но и в мошеннических схемах. Благодаря анализу личных данных злоумышленники способны создавать максимально убедительные сообщения — от фальшивых предложений банков до дипфейков с голосами знакомых людей. В таких случаях ИИ помогает делать мошенничество более персонализированным и психологически точным.

Однако специалисты сомневаются, что полный запрет на манипуляции поведением пользователей будет легко реализовать на практике. Системы ИИ генерируют огромное количество вариантов ответов и сценариев общения, которые зависят от модели, данных и конкретного контекста диалога. Даже разработчики не всегда могут полностью контролировать то, как система будет вести себя в каждой ситуации.

Кроме того, эксперты предупреждают, что чрезмерное регулирование может иметь и обратный эффект. Многие цифровые сервисы — онлайн-магазины, платформы такси, стриминговые сервисы и поисковые системы — используют рекомендательные алгоритмы для помощи пользователям. Персонализированные рекомендации позволяют быстрее находить нужные товары, услуги или контент. Если такие механизмы рассматривать как форму воздействия на принятие решений, то под ограничения могут попасть практически все современные рекомендательные системы и персонализированная реклама.

В законодательстве уже существуют нормы, предусматривающие ответственность за мошенничество, клевету, доведение до самоубийства и другие правонарушения. Поэтому вводить дополнительную ответственность именно для разработчиков ИИ следует очень осторожно, чтобы не создать избыточных ограничений для технологической отрасли.

Источник: Известия

Похожие статьи