Центр изучения преступлений будущего обвинил искусственный интеллект

09.08.2020Автор
Центр изучения преступлений будущего обвинил искусственный интеллект
Авторы поставили на первое место аудио- или видеоконтент и заявили, что его будет сложно обнаружить, при этом спектр использования невероятно широк – от дискредитации общественного деятеля и нагнетания напряженности, до извлечения денежных средств...

Согласно новому отчету лондонского университета UCL (University College London), фальшивый аудио- или видеоконтент был признан наиболее опасным применением искусственного интеллекта. В рамках подготовки отчета в качестве дополнительных экспертов британскими учеными были привлечены специалисты в ИИ-области из академических кругов, частного бизнеса, полиции, правительства и органов государственной безопасности.

В итоговом исследовании, опубликованном в журнале Crime Science, определены наиболее актуальные для ближайших двадцати лет способы криминального использования AI. Варианты были ранжированы в порядке их негативного эффекта, то есть в зависимости от вреда, который они могут причинить, их потенциальной выгоды для преступного мира, а также того, насколько легко задуманное можно будет реализовать и насколько сложно будет это остановить.

Авторы поставили на первое место аудио- или видеоконтент и заявили, что его будет сложно обнаружить, при этом спектр использования невероятно широк – от дискредитации общественного деятеля и нагнетания напряженности, до извлечения денежных средств. Использование фальшивого контента может вызвать повсеместное недоверие к аудио- и визуальным доказательствам, что само по себе нанесет существенный ущерб обществу.

Помимо создания фальшивого аудио- и видеоконтента, еще пять направлений преступного применения AI были признаны вызывающими серьезную озабоченность. Это использование беспилотных автомобилей в качестве оружия, специализированные фишинговые сообщения (целевой фишинг), атаки для нарушения работы различных систем, управляемых AI, сбор данных для шантажа и генерация искусственным интеллектом текстовых фейковых новостей.

Профессор UCL Льюис Гриффин заявил: «По мере расширения возможностей технологий на основе искусственного интеллекта возрастает и потенциал для их преступной эксплуатации. Чтобы надлежащим образом подготовиться к возможным угрозам, которые несет обществу AI, нам необходимо определить, какими могут быть эти угрозы, и как они могут повлиять на нашу жизнь».

К преступлениям (с участием AI) «средней степени серьезности», которые тем не менее причислены к одним из наиболее прибыльных, британские эксперты отнесли продажу товаров и услуг обманным путем, в том числе специальную, таргетированную с применением AI рекламу.

К преступлениям, вызывающим наименьшее беспокойство, специалисты относят те, которые, несмотря на то, что они наносят ущерб конкретным людям, сложно применять в больших масштабах. Это, к примеру, умные боты-грабители - маленькие роботы, используемые для проникновения в дома через форточки или откидные дверцы для кошек.

По мнению авторов, нынешняя жизненная среда, в которой данные являются собственностью и дают их владельцам определенную власть, идеально подходит для развития новых видов преступной деятельности, с использованием AI. Эксперты отмечают, что в отличие от многих традиционных правонарушений, преступления в цифровой сфере крайне легко распространять, повторять и даже продавать, что позволяет не только транслировать на весь мир новые преступные методы, но и предоставлять их в качестве услуги.

Похожие статьи