Какие риски влечет за собой искусственный интеллект

Логотип компании
Какие риски влечет за собой искусственный интеллект
У каждой новой технологии есть обратная сторона медали. В статье мы перечислим основные риски, с которыми сопряжено развитие и внедрение ИИ-технологий.

Буквально за десятилетие технологии искусственного интеллекта (ИИ) значительно изменили нашу жизнь. Благодаря рекомендациям, сформированным ИИ в онлайн-кинотеатре, нам теперь проще выбрать интересный фильм. Ленты соцсетей стали персонализированными и потому выглядят еще интереснее. А более 95% решений о выдаче кредитов банки принимают с использованием скоринга на базе машинного обучения.

Отрасли применения ИИ можно перечислять долго, и их количество непрерывно растет. Но у каждой новой технологии есть обратная сторона медали. В статье мы перечислим основные риски, с которыми сопряжено развитие и внедрение ИИ-технологий.

Вред от неправильных предсказаний

Рассмотрим типичный сценарий работы ИИ-системы. Например, на этапе принятия решения о выдаче кредита мы хотим получать предсказания о том, вернет ли клиент банку долг. Какие возможны варианты:

  1. Истинно положительный результат (ИП) — модель ИИ одобряет выдачу, и клиент возвращает кредит по условиям договора.

  2. Ложно положительный (ЛП) — модель одобряет выдачу, но впоследствии образуется задолженность (и, возможно, дефолт).

  3. Истинно отрицательный (ИО) — система отказывает в выдаче займа, и клиент бы его действительно не выплатил.

  4. Ложно отрицательный (ЛО) — система отказывает в выдаче займа, но клиент платежеспособен и мог бы его выплатить.

Во втором и четвертом случае банк несет потери от неправильных предсказаний. Во втором варианте — прямые потери тела кредита, в четвертом — косвенные ввиду отказа в займе платежеспособному клиенту.

Для того чтобы минимизировать количество ложных результатов, разработчики ИИ-решений постоянно совершенствуют точность и функциональность систем. Кроме того, часто они реализуют работу своего сервиса таким образом, чтобы в случаях, когда ИИ «сомневается», человек мог вмешиваться и принимать решения самостоятельно.

Изменения в профессиях/лишение рабочих мест

Внедрение искусственного интеллекта, как и любой другой новой технологии, подразумевает изменения в отрасли его применения. В частности, профессия рабочего автомобильного производства претерпела значительные изменения после перехода от ручного труда к конвейерной сборке. А некоторые профессии и вовсе исчезли — как, например, телефонист, кучер и глашатай.

Но не стоит забывать, что технологических изменений в истории было множество, а профессий, которые полностью исчезли, не так много. Функциональные же изменения произошли практически во всех профессиях, затронутых технологическим прогрессом.

Развитие ИИ-технологий открывает и новые роли в профессиях. Например, благодаря применению систем компьютерного зрения в медицине появились три поднаправления в профессии врача: врач-разметчик (участвует в подготовке медицинских данных для обучения ИИ), медицинский консультант (оказывает экспертную поддержку при разработке) и медицинский директор (выполняет представительские функции разработчика в медицинском сообществе). Подробнее об этом рассказал разработчик ИИ-решений для радиологии.

Подделка и Deepfake

С ростом уровня проникновения ИИ в нашу жизнь возрастают и риски, связанные с конфиденциальностью и защитой информации. Хакеры уже давно используют ИИ-технологии для повышения эффективности зловредной программы или шифинговой кампании.

Например, хакеры стали использовать разработку компании OpenAI — ChatGPT — для генерации зловредного программного обеспечения и кражи данных. Эта же разработка отлично показала себя в генерации поддельных научных работ и успешно обманула исследователей, которые должны были определить, кто создал данный текст: человек или машина. В 32% случаев исследователи отметили, что тексты написаны живыми людьми, хотя фактически они были созданы ботом ChatGPT

Не менее распространено и создание поддельного фото- и видеоконтента. Часто такие креативы служат для запуска дезинформации и шантажа. С помощью ИИ можно максимально правдоподобно заменить одного человека другим на фото или видео, изменить его голос, мимику и т. д.

Избыточное доверие к ИИ

Следующий, не менее важный риск, — избыточное доверие к ИИ-системам. Он предполагает, что некоторые пользователи таких систем будут избыточно полагаться на «экспертное» мнение ИИ, а не на свое собственное. Наиболее чувствительно это может проявляться в сфере медицины, когда врач, который будет изучать рентгенограмму пациента, пропустит злокачественное образование из-за того, что ИИ сообщил о его отсутствии.

Вмешательство в частную жизнь

«Конфиденциальности» в том смысле, в котором она понимается, уже не существует. Концепция «умного города» включает оптимизацию движения трафика, контроль за нарушениями ПДД, зонирование и т. д. Все это подразумевает использование средств фото- и видеофиксации, функционирующих в автоматическом или полуавтоматическом режиме и служащих для минимизации рисков ДТП, поиска лиц, находящихся в розыске, и решения других крайне важных задач.

Цифровой след есть у каждого человека. За каждым из нас наблюдают не только камеры «безопасного города». Фитнес-браслеты, операции банковских транзакций, данные смартфона, покупки в приложениях — все эти данные о нас собираются и хранятся. А еще этими данными мы очень любим делиться в социальных сетях и выкладывать в публичный доступ: куда мы полетели отдыхать, сколько мы пробежали этим утром, что мы купили или, наоборот, продаем на авито. Обо всем этом мы рано или поздно забываем, но цифровой след никуда не исчезнет.

Одной из главных особенностей ИИ является его способность к нахождению сложных закономерностей, незримых для человека. Вполне вероятно, совсем скоро такие системы будут знать и помнить о нас больше, чем мы сами. Поэтому растущий в мире интерес к вопросам информационной безопасности более чем оправдан.

Читайте также
IT-World попросил ведущих ИБ-экспертов поделиться мнением о достоинствах и недостатках Zero Trust,о сложностях перевода на этот метод корпоративной инфраструктуры и пользователей.

Дискриминация и предубеждение

ИИ обучается на большом количестве данных. И то, какие паттерны он выявит на них, не всегда очевидно. Объяснить суть этого явления проще на примерах.

Допустим, разработчик обучает ИИ-систему находить рак кожи по фотографии и для этого «показывает» ей огромное количество снимков с подтвержденными случаями заболевания и с его отсутствием. При тестировании неожиданно обнаруживается, что ИИ чаще обнаруживает «признаки» заболевания именно на тех фото, которые были сделаны во врачебном кабинете.

Выясняется, что это связано с данными, на которых ИИ обучался: именно на фото из врачебного кабинета рак кожи присутствовал чаще всего, поскольку болезнь обычно была диагностирована после того, как пациент обращался к врачу. Но ИИ не может этого понять, и для него фон, на котором сделан снимок, тоже может служить триггером (и не всегда правильным). Грубо говоря, ему может казаться, что врачебный кабинет — это признак рака кожи.

Вот еще один пример дискриминации, на этот раз из реальной жизни. Программа Compas, которую использовал американский суд для оценки риска рецидивов, безосновательно оценивала риск повторного попадания в тюрьму темнокожего населения в 2 раза чаще, чем у светлокожего.

Заключение

ИИ делает нашу жизнь комфортнее, интереснее и даже безопаснее. Но не стоит забывать и о «технике безопасности» при внедрении в нашу жизнь новых технологий.

Этой статьей я хотел не подсветить недостатки технологий ИИ, а привлечь внимание к рискам, связанным с их применением – как для пользователей, так и для самих разработчиков. Учет этих факторов уже важный шаг к обеспечению безопасности и управлению рисками.

Опубликовано 26.01.2023

Похожие статьи