Искусственный интеллект бросает вызов конфиденциальности данных
В эпоху повсеместного распространения искусственного интеллекта персональные данные стали новым фронтом для кибератак. Именно эту проблему обсудили за круглым столом представители компании Sympace и эксперты в области информационной безопасности.
Генеральный директор Sympace Сергей Ланских отметил: «ИИ демократизировал киберпреступность. Теперь для проведения сложной атаки не нужно быть высококлассным программистом. Достаточно уметь грамотно формулировать запросы к нейросети». Это подтверждается исследованием 2024 года, показавшим рост числа атак с использованием ИИ на 51%. Проще говоря, мощное хакерское оружие теперь доступно многим.
Но как именно выглядит эта угроза? Участники выделили ключевые векторы современных угроз. Одним из таких стал OSINT - сбор данных на основе открытых источников. Современные ИИ-системы способны проводить глубокий анализ общедоступной информации, создавая сверхперсонализированные фишинговые атаки. Следующий вектор распространяется на генеративные ИИ, которые создают письма без грамматических ошибок, идеально имитируя стиль общения коллег. Это ведет к росту успешных атак на компании, где сотрудники привыкли доверять внутренней переписке. Особую тревогу могут вызвать голосовые клоны и дипфейки, которые используются в социальной инженерии. Теперь мошенникам достаточно несколько секунд аудиозаписи из открытых источников, чтобы сгенерировать убедительную атаку, что впоследствии сказывается на доверии к цифровому общению.
Если кажется, что “индивидуальная” атака может затронуть лишь единицы, то массовые атаки бьют уже по всем сразу. Яркий пример - автоматизированные атаки на учетные записи с помощью ИИ-агентов. Раньше злоумышленникам приходилось вручную проверять базы украденных паролей. Теперь же ИИ-агенты делают это за них, самостоятельно проверяя миллиарды парольных пар на различных сервисах. Это приводит к массовым взломам, и особенно уязвимы те пользователи, которые используют один и тот же пароль на нескольких платформах.
А что делать, когда угрозы исходят не только с помощью ИИ, но и направлены на сам искусственный интеллект? Риск есть и здесь. Например, инверсионные атаки помогают злоумышленникам извлекать конфиденциальные данные прямо из обучающих наборов нейросетей. Также опасны и методы «отравления данных», которые могут нарушить работу алгоритма. Последствия таких атак выходят за рамки утечек. Представьте, что автопилот автомобиля перестает правильно распознавать дорожную разметку из-за манипуляций хакеров в системе. Это подрывает доверие ко всей системе ИИ - разрушается основа для их внедрения в рабочие процессы.
В свете этих вызовов участники сошлись во мнении, что бизнесу, внедряющему ИИ, приходится защищать не только данные, но и саму интеллектуальную систему. Здесь на страже стоят и современные методы защиты, такие как деперсонализация данных, дифференциальная приватность и федеративное обучение.
«Бизнес должен воспринимать безопасность данных не как статью расходов, а как конкурентное преимущество, — резюмировал Сергей Ланских. — Доверие клиентов — это самый ценный актив в цифровую эпоху».
И это доверие становится особенно важным в эпоху развития ИИ и на фоне меняющихся правил игры. Принятие «Закона об искусственном интеллекте» в ЕС — лишь первый звонок. Ожидается, что в ближайшие годы и российский бизнес столкнется с ужесточением требований и появлением новых стандартов безопасности. Комплексный подход к защите данных сегодня - не просто опция, а необходимость для тех компаний, кто планирует оставаться на рынке и завтра.
