Искусственный интеллект обеспечивает кибербезопасность

Искусственный интеллект обеспечивает кибербезопасность
Каждый год в мире регистрируется несколько миллиардов утечек информации. Они приносят колоссальные убытки и репутационный ущерб компаниям, которые это допускают. В большинстве случаев причиной таких утечек становятся действия преступников. Это один из видов киберугроз.

Другими известным источником киберугроз являются вредоносное ПО (компьютерные вирусы), DDoS-атаки проводимые с целью нарушения работы важных компонентов инфраструктуры какого-то сервиса, или фишинг – атаки, цель которых обманом заполучить конфиденциальную информацию пользователя, например, отправляя жертвам электронные письма.

Причем с каждым годом атаки в киберпространстве становятся все сложнее и изощреннее. Это связано не только с развитием привычных методов атак, но и с внедрением новых технологий в разные сферы жизни человека. Поэтому иногда оказывается, что службы кибербезопасности не успевают справиться со всеми угрозами

Как ИИ отслеживает киберугрозы

Искусственный интеллект стал одной из важнейших технологий, появление которой уже изменило и еще больше изменит многие области человеческой деятельности. Модели, полученные с помощью машинного обучения, оказались способны решать многие нетривиальные задачи, которые нельзя решить с помощью последовательности строго заданных инструкций. За счет того, что модель во время обучения наблюдает значительное число данных или, еще говорят «прецедентов», она способна делать обобщения и выявлять сложные связи между различными признаками входных данных.

Таким образом, специалисты из области кибербезопасности обучают на большом множестве данных несколько моделей, каждая из которых способна решать свою узкую задачу, например, фильтровать письма со спамом, анализировать трафик в сети или поведение пользователя. И все это на основе сложных взаимосвязей, которые модель выучила из исторических данных.

Искусственный интеллект активно внедряется специалистами по кибербезопасности для автоматизированного обнаружения основных угроз, таких как спуфинг, фишинг и других. С помощью машинного обучения удалось добиться значительного сокращения числа ложных срабатываний таких систем, сохранив при этом высочайший уровень обнаружения. Это принесло большую пользу в связи с возрастанием количества используемых данных и усложнения схемы атак.

Еще одним примером использования ИИ в кибербезопасности можно назвать поведенческий анализ, то есть анализ различной информации о пользователе или сотруднике, например, его географическое положение, время выполнения некоторого действия, идентификаторы устройств и множество других, для выявления аномалий в его поведении и блокировке подозрительных действий.

Важным преимуществом использовании ИИ в кибербезопасности является его способность прогнозировать атаки еще до их полноценного осуществления, что поможет вовремя усилить средства защиты. Другим его преимуществом является сокращение человеческого фактора – искусственный интеллект не подвержен различным психологическим влияниям или усталости.

Если же говорить про обычную безопасность, то довольно широко внедряется видеонаблюдение с использованием ИИ. Такие системы способны детектировать на видео множество объектов в режиме реального времени, распознавать лица и предупреждать службы охраны о противоправных действиях.

Перспективы использования ИИ в сфере безопасности

У использования ИИ в безопасности есть и обратная сторона, так как новая технология применяется как злоумышленниками, так и специалистами в области кибербезопасности. Например, зафиксировано довольно много случаев, когда хакеры использовали искусственный интеллект для управления масштабными ботнетами, используемыми для массовой рассылки спама, DDoS-атак и других известных кибератак. В этом случае искусственный интеллект увеличивает скорость атаки, позволяет ей быть более сложной и адаптивной к возможным защитам.

К тому же нейронные сети сами могут быть атакованы злоумышленником. Существует целая область исследований, посвященных вопросу устойчивости и безопасности нейронных сетей. Еще в 2013 году было показано, что модель ИИ при небольшом злонамеренном изменении входных данных может выдать совершенно некорректный результат своей работы. Такие немного измененные данные, на которых нейронные сети допускают ошибки, получили название «состязательные примеры». Состязательные примеры могут быть созданы практически для любых данных, с которыми работают нейронные сети: для изображений, текста, аудио. Можно привести примеры и из кибербезопасности: злоумышленник может атаковать детектор спама среди электронных писем или классификатор вредоносного ПО. Так как эти системы обычно содержат в себе модели ИИ, то их обман приведет к пропуску спам-письма или вируса.

С развитием исследований в области безопасности ИИ было показано, что злоумышленнику далеко не всегда требуется знание всей модели, которую он хочет атаковать. Были предложены атаки в режиме черного ящика, то есть такие, которым требуется или лишь наблюдение за работой нейронной сети, или примерное знание о данных, на которых обучалась атакуемая модель. Таким образом, была показана реальность состязательных атак даже в том случае, если злоумышленник не имеет полного доступа к модели.

Были также открыты и другие атаки на системы ИИ, среди которых стоит упомянуть атаки отравлением. Суть этих атак заключается в незначительном и зачастую незаметном для человека изменении обучающих данных с целью формирования обучаемой моделью желаемых злоумышленником свойств. Под этим подразумевается некорректная работа модели на некотором подмножестве входных данных. В связи с тем, что ИИ обучается на огромном количестве данных, которые невозможно проверить вручную, а многие из них могут поступать из непроверенных источников, то этот тип атак также становится совершенно реальной угрозой в области кибербезопасности.

На сегодняшний день не существует надежных и универсальных методов защиты от атак на системы искусственного интеллекта. Поэтому любое использование ИИ в кибербезопасности, хотя и приносит огромную пользу, но таит в себе и новые угрозы.

Соперничество в сфере ИИ

Все вышенаписанное не дает однозначного ответа, поможет ли искусственный интеллект справиться с киберпреступностью. Все будет зависеть от того, смогут ли специалисты в области кибербезопасности создать ИИ более совершенный, чем ИИ у злоумышленников. Потому что, как было сказано, искусственный интеллект сам подвержен определенного рода атакам и очень важно решить задачу создания устойчивого и безопасного ИИ.

Более того, ИИ, как новая технология, привел к появлению новых киберугроз. К примеру, с помощью нейронных сетей стал возможен синтез высококачественных изображений, видео, аудио или другой информации, созданных с целью введения человека или какую-то систему распознавания в заблуждение. Эту методику называют deepfake и она уже была успешно использована для мошенничества и других противоправных действий. Например, был зафиксирован случай, когда управляющему одной компании позвонил человек, говоривший голосом генерального директора компании, и попросил о переводе 220 000 евро. И в результате деньги были переведены мошеннику. Поэтому, можно сказать, что задача защиты от угроз не становится легче, потому что за счет новых технологий постоянно появляются новые угрозы.

Евгений Ильюшин,

преподаватель на магистерской программе «Искусственный интеллект в кибербезопасности», разработанной при поддержке некоммерческого фонда развития науки и образования «Интеллект», сотрудник кафедры ИБ ВМК МГУ имени М.В. Ломоносова

Опубликовано 14.02.2023

Похожие статьи