Между кодексом и законом: этика искусственного интеллекта в эпоху беспрецедентных возможностей. Часть 1
В последние десятилетия искусственный интеллект (далее — ИИ) широко раздвинул границы науки и технологий, проник во все сферы деятельности. ИИ несет несомненные преимущества, он улучшает эффективность и ускоряет развитие многих отраслей. Однако вместе с появлением этого мощного инструмента возникла необходимость осмысленного подхода к его использованию.
Актуальными становятся вопросы ответственности разработчиков и операторов ИИ: что означает нравственное поведение для машин? Какие принципы и ценности следует внедрять в программные алгоритмы? Какие этические рамки следует установить для развития автономных систем и робототехники?
ИТ-специалистов в России и на международной арене объединяет общая цель — создание интеллектуальных систем, которые будут отражать общепринятые ценности и уважать человеческие права. Только в этом случае справедливость и этичность станет неотъемлемой частью развития искусственного интеллекта.
Путь ИИ от средневекового испанского философа до Айзека Азимова
Многие вещи в истории развиваются по циклической спирали. Интерес к ИИ и научным исследованиям в этой области возник еще в средневековье. Родоначальником искусственного интеллекта был Раймонд Луллий — испанский философ, математик и поэт XIII века. Он стремился создать механическое устройство, способное решать разнообразные задачи на основе обширной классификации понятий, которую он сам разработал.
В качестве научного направления ИИ появился после создания ЭВМ в 1940-х годах. В это время Норберт Винер совершил значительные научные открытия в новой области, известной как кибернетика. Термин «искусственный интеллект» (англ. Artificial Intelligence, AI) был предложен в 1956 году на семинаре с аналогичным названием, который состоялся в Дартмутском колледже в США.
Тогда же в своей книге «Я, робот» Айзек Азимов изложил три закона робототехники:
-
Робот не может причинять вред человеку или своим бездействием позволить, чтобы человеку причинили вред.
-
Робот должен подчиняться любым приказам, данным ему людьми, за исключением случаев, когда такие приказы будут противоречить первому закону.
-
Робот должен защищать самого себя, если такая защита не противоречит первому или второму закону.⠀
Эти законы относятся в большей степени к робототехнике, чем к ИИ, но граница между восприятием этих понятий до сих пор размыта. Роботы и нейросети представляют собой системы, которые не являются живыми организмами, но способны активно влиять и взаимодействовать с людьми, приводя к заметному взаимодействию между ними. Поэтому законы Азимова представляют собой одни из фундаментальных принципов этики ИИ.
Современный этап развития ИИ начался примерно семь лет назад, когда значительный технологический прогресс позволил собирать, обрабатывать и анализировать огромные объемы данных с использованием вычислительных машин. Новая волна развития ИИ вызвала широкое обсуждение искусственного интеллекта, включая этические нормы, связанные с его применением.
Этика ИИ на мировом уровне и в России
На мировом уровне вопросом этики ИИ занимается ЮНЕСКО[1]. В марте 2020 года международная организация создала специальную комиссию из 24 экспертов с целью сформулировать универсальные и фундаментальные базовые концепции в области этики ИИ. По итогам продолжительных конструктивных диалогов и переговоров, представители государств — членов ЮНЕСКО достигли согласия по проекту текста новой модели этической разработки и внедрения искусственного интеллекта, который охватывает широкий диапазон задач и является амбициозным в своей масштабности.
NB! Для каждой отдельной страны кодекс этики ИИ, сформированный ЮНЕСКО, имеет свою специфику.
Кодекс ЮНЕСКО для ИИ[2] основан на базовых принципах, они дублируют и расширяют основные законы Азимова. Эксперты также учли важность гендерных, культурных, образовательных, экономических и социальных аспектов. В целом, соглашение ЮНЕСКО имеет рекомендательный характер, цель организации — помочь участникам более детально исследовать этический вопрос и разработать собственную версию на законодательном уровне, отражающую специфику конкретной страны.
В России[3] аналогичный документ был разработан в 2021 году Комиссией (Альянсом) по реализации Кодекса этики в сфере ИИ, он представляет собой систему рекомендательных принципов и правил, предназначенных для создания среды доверенного развития технологий искусственного интеллекта в России. Данный Кодекс является полностью добровольным и не имеет законодательной или нормативной силы. Это своеобразный альянс, к которому может присоединиться любая заинтересованная организация, разработчики или бизнес, готовые поддержать его принципы. В их числе ведущие российские компании, такие как Сбер, VK, Softline, «Яндекс», «Ростелеком».
В задачи российского Кодекса входит предоставление рекомендаций для этически обоснованного принятия решений относительно разработки и использования искусственного интеллекта. А также уменьшение рисков неправомерного использования искусственного интеллекта, которые могут нарушать права и интересы человека. Конечная цель — создание механизма взаимодействия между государством, разработчиками, научными организациями и обществом для обсуждения этических аспектов искусственного интеллекта.
Кодекс состоит из пяти блоков, в каждый из которых заложены основополагающие принципы:
-
приоритет развития технологий в сочетании с защитой прав человека и индивида;
-
ответственность участников процесса при создании и использовании искусственного интеллекта;
-
ответственность участников процесса за последствия применения данной технологии;
-
искусственный интеллект должен использоваться там, где он приносит пользу;
-
конкуренция и развития технологий.
Кроме того, участники Альянса в сфере ИИ ведут работу по стандартизации по ГОСТу кодекса этики, создают разделы, определяющие нормы и принципы. Таким образом, в фокусе находятся разработка концепций регулирования ИИ, этика применения и техническая стандартизация ИИ.
ИИ не может быть зоной без закона
Искусственный интеллект активно проникает в различные сферы нашей жизни и влияет на наши решения, нередко с потенциально вредными последствиями. В то же время возникают значительные законодательные пробелы, требующие незамедлительного устранения. Прежде всего, необходимо достичь согласия относительно тех ценностей, которые следует закрепить, и установить соответствующие правила, которым необходимо следовать. Несмотря на наличие различных рамочных основ и руководящих принципов, их применение неравномерно и ни одно из них не обладает истинно глобальным характером. В июне появилась новость о том, что правительство разработает закон об ИИ[4], направленный на обезличивание данных и общее регулирование. Но, учитывая глобальный масштаб использования искусственного интеллекта, нам необходим международный инструмент для его урегулирования на законодательном уровне.
Продолжение: Часть 2
[1] https://www.unesco.org/ru/artificial-intelligence/recommendation-ethics
[2] https://unesdoc.unesco.org/ark:/48223/pf0000381137
[4] https://incrussia.ru/news/zakon-ob-iskusstvennom-intellekte/
Опубликовано 26.07.2023