Между кодексом и законом: этика искусственного интеллекта в эпоху беспрецедентных возможностей. Часть 2
Это два различных уровня развития ИИ - слабый и сильный, они обладают разными характеристиками и потенциалом. Понимание разницы и осознание этических аспектов помогут государству, представителям науки, бизнесу, разработчикам и пользователям взглянуть на развитие ИИ с более широкой и информированной перспективы, а также принимать обоснованные решения относительно его использования в обществе.
Сильный и Слабый
Слабый искусственный интеллект представляет собой технологии, которые специализируются на узких конкретных задачах и помогают людям. Слабый ИИ не несет ответственности за последующие действия и решения, он служит помощником и используется в качестве системы поддержки принятия решений. Например, компьютерное зрение, идентификация людей на видеозаписях или прогнозирование продаж товаров. В основе этих технологий лежит обработка данных, часто связанная с машинным обучением. Однако, даже при такой ограниченности, слабый ИИ вызывает вопросы о приватности данных, недостатке прозрачности и потенциальном замещении человеческого труда.
Сильный ИИ и слабый ИИ соревновались на беговой дорожке. Сильный ИИ говорит: 'Вот я покажу, как бежать со скоростью света!' А слабый ИИ отвечает: 'А я покажу, как бежать со скоростью чайника!'.
Анекдот от ChatGPT
NB! Слабый ИИ не является активным участником процесса.
Активные участники - люди: разработчики продукта, специалисты, которые внедряют конкретные технологии ИИ, заказчики, потребители и операторы, которые взаимодействуют с этим инструментом. Все зависит от того, кто создал инструмент и как его используют.
Этика слабого искусственного интеллекта в значительной степени соответствует принципам Азимова. Однако в современных кодексах ИИ эти правила стали более обширными и многочисленными.
Сильный искусственный интеллект представляет собой более сложный уровень развития. Он обладает способностью мыслить самостоятельно, анализировать сложные задачи и принимать решения, а в определенных областях он превосходит человеческий интеллект. Такая мощь ИИ вызывает вопросы о его этике, ответственности и возможных последствиях для общества.
Чтобы избежать нежелательных последствий в будущем, ИТ-специалистам нужно учитывать принципы этики еще на этапе разработки систем, способных достичь уровня сильного ИИ. Если не заложить этическую основу заранее, искусственный интеллект станет актором* и будет обладать автономностью в принятии решений. В зависимости от сценария развития ИИ, последствия могут быть различными и непредсказуемыми, как в научно-фантастических фильмах-катастрофах про Терминатора.
NB! На данный момент сильный искусственный интеллект не существует
Вопрос о том, сможет ли сильный ИИ вообще быть созданным, остается открытым и вдохновляет разработчиков на дальнейшие исследования и развитие в этой области. А существующие кодексы и стандартизация, связанные с искусственным интеллектом, скорее относятся к сфере слабого ИИ.
Взаимодействие между человеком и ИИ
Взаимодействие между человеком и искусственным интеллектом играет ключевую роль в этической проблематике. Это двунаправленный процесс, в котором ИИ воздействует на человека своими решениями, а человек воздействует на ии. Взаимодействие между ними стало предметом обсуждения Альянса в сфере ИИ, который объединяет ведущие технологические компании для совместного развития их компетенций и ускоренного внедрения искусственного интеллекта в образовании, научных исследованиях и в практической деятельности бизнеса.
NB! Одна из главных проблем заключается в том, что слабый искусственный интеллект часто и систематически проявляет предвзятость
Этот термин на английском называется "bias", по-русски чаще "предвзятость" или "смещённость". Предвзятость слабого ИИ проявляется в различных аспектах, например, она может возникнуть в процессе сбора данных для обучения модели ИИ по определенной задаче, если этот процесс был проведен небрежно.
Если модели обучаются на необъективных данных, то их использование также приводит к предвзятости результатов. Это особенно заметно в сфере HR, определенная часть которой уже построена на использовании алгоритмов слабого ИИ. Например, предвзятость может помешать при оценке соответствия кандидатов при найме на работу, профилировании личностей или психологической оценке совместимости навыков. Небрежный подход негативно отразится на процессе найма сотрудников и в конечном счёте погубит компанию.
NB! Причины предвзятости могут быть разные: от недосмотра и халатности до злого умысла
Вопрос предвзятости не ограничивается только этапом сбора данных, он может возникнуть и во время обучения моделей. Эксперт, занимающийся обучением моделей, имеет определенное влияние на этот процесс, что также может привести к предвзятости в конечной модели. Существуют риски злонамеренного вмешательства в процесс обучения или обнаружения уязвимостей в модели, которые могут быть затем эксплуатированы злоумышленниками, подобно обычным программам. Например, человек с мошенническими намерениями может пройти через систему оценки банка и получить кредит. Для этого ему нужно обойти системы ИИ, которые широко применяются для оценки кредитного риска и риска невозврата в крупных российских банках.
Это открывает уязвимости и поднимает этический вопрос: как создавать модели таким образом, чтобы они не причиняли потенциальный вред или зло людям. Речь идет о числовых данных, которые используются в процессе обучения моделей, что в свою очередь имеет двоякое значение. Например, персональные данные, медицинские записи, банковская конфиденциальность. Это лишь один из множества этических аспектов.
Кодекс - это не закон
Вопросы этики и стандартизации, связанные с ИИ, чаще всего относятся к слабому искусственному интеллекту и акторам-людям. Сильный ИИ еще не создан, в связи с этим, документы и договоренности, касающиеся этики сильного искусственного интеллекта, находятся на уровне дискуссий, их разработка еще не завершена. Но уже понятно, что риски, связанные со сильным ИИ, значительно превышают риски от слабого ИИ. Критически важно понимать, что кодекс этики ИИ - это не закон, а только лишь набор принципов, которые могут использоваться для ориентира и регулирования поведения в области искусственного интеллекта, но не имеют прямой юридической силы.
*Влиятельное, заметное лицо, играющее контролирующую роль в том или ином социальном процессе
Продолжение: Часть 3
Опубликовано 29.08.2023