GlobalData: кибербезопасность сталкивается с проблемой искусственного интеллекта

10.05.2024Автор
GlobalData: кибербезопасность сталкивается с проблемой искусственного интеллекта
Индустрия кибербезопасности сталкивается с проблемой, которую нельзя назвать обычной. Перспектива наступательных атак с использованием искусственного интеллекта (ИИ) заставляет увеличивать бюджеты на кибербезопасность, поскольку организации пытаются понять, как генеративный ИИ повлияет на их безопасность.

ИИ уже используется для обнаружения угроз, и его более широкое внедрение, несомненно, поможет противостоять атакам. Однако для того, чтобы научиться противостоять атакам с использованием ИИ, потребуется время, и в ближайшие два-три года поставщики и пользователи систем кибербезопасности столкнутся с «неровной дорогой», считает GlobalData, ведущая компания по обработке данных и аналитике.

В отчете GlobalData "Кибербезопасность - тематическая разведка" говорится, что в 2024 году бюджеты на кибербезопасность будут расти вместе с ИТ-бюджетами, поскольку организации придут к пониманию влияния искусственного интеллекта на их деятельность.

По прогнозам GlobalData, к 2027 году объем мирового рынка кибербезопасности составит $290 млрд, а в период с 2022 по 2027 год среднегодовые темпы роста (CAGR) составят 13%. Высокими темпами будут расти такие направления, как управляемые услуги безопасности, безопасность приложений, а также управление идентификацией и доступом.

Дэвид Бикнелл, главный аналитик отдела тематической разведки компании GlobalData, говорит следующее: "Организации научились справляться с кибератаками, целенаправленно направленными на корпоративные технологии, такие как сети, облачные хранилища и конечные устройства. Но ИИ изменил ситуацию. Теперь организации должны реагировать на атаки ИИ, которые могут адаптироваться к конкретной среде, искать слабые места и использовать их в своих целях. Это неизведанная территория. Пока еще слишком рано судить о том, как ИИ повлияет на положение организаций в области кибербезопасности. ИИ может помочь организациям повысить эффективность обнаружения угроз, поиска и реагирования на инциденты, но в то же время противники будут использовать ИИ в кибератаках. Простой пример - киберпреступники используют генеративный ИИ для усиления фишинговых атак, устраняя признаки поддельных сообщений, такие как плохая грамматика и орфографические ошибки".

Похожие статьи