Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени

Логотип компании
Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени
Фото: Андрей Виноградов
Что, если завтра время на всех серверах мира начнет расходиться на несколько секунд, парализуя работу банков и авиации? Или ваш персональный ИИ-ассистент, которому вы доверили почту и покупки, попадет под влияние изощренной «промпт-инъекции» с вредоносного сайта?

Это вторая часть материала о прошедшей конференции «Лаборатории Касперского», начало читайте здесь.

Эксперты «Лаборатории Касперского» представили сценарии «серых лебедей» — катастроф, которые сложно смоделировать, но вполне реально пережить. Рассказываем, как нейросети меняют наше представление о безопасности и почему в ближайшие годы человечество рискует разделиться на тех, за кого думает алгоритм, и новую интеллектуальную элиту.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 1

После мрачных сценариев кибершпионажа разговор о нейросетях воспринимается почти как глоток воздуха. Хотя, как показывает доклад Владислава Тушканова, руководителя группы исследований технологий машинного обучения в «Лаборатории Касперского», воздух этот отнюдь не стерилен. По его оценке, три главных тренда 2025 года в AI — это «момент DeepSeek» и взрыв открытых моделей, массовое внедрение машинного обучения в кибербезопасность и стремительный рост так называемых ИИ‑агентов. История с DeepSeek (в презентации — DeepSeek moment) хорошо видна по статистике платформы OpenRouter: в топе по использованию доминируют уже не только модели привычных лидеров, но и решения от китайских лабораторий вроде Qwen, GLM, Kimi. Давление оказалось настолько серьезным, что OpenAI впервые с 2019 года выпустила в открытый доступ текстовые модели GPT‑OSS. Параллельно российские компании тоже активизировались: в открытом доступе появились модели YandexGPT‑5, GigaChat‑3 и ряд других, лучше адаптированные под русский язык и контекст.

Второй слой — практический: «Лаборатория Касперского» уже много лет использует ML, но 2025‑й стал годом, когда ИИ окончательно встроился в продукты для бизнеса. В Kaspersky SIEM (KUMA) и XDR появились технологии обнаружения аномалий вроде DLL hijacking и Compromised Account Detection, помогающие поймать атаки, которые сложно описать статическими правилами. В линейке решений для контейнерной безопасности используются большие языковые модели, которые анализируют конфигурации контейнеров и подсвечивают потенциально опасные настройки. На этом же фундаменте построен KIRA — ИИ‑ассистент, который уже работает в Kaspersky EDR, XDR и Kaspersky Container Security. Он позволяет специалистам по безопасности задавать вопросы к данным на обычном русском языке («покажи события по таким‑то хостам за последнюю неделю»), получать сводки по инцидентам и даже генерировать SQL‑запросы без погружения в синтаксис.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 2

Но главный герой доклада — ИИ‑агенты. Если чат‑боты уже стали привычными собеседниками, то агенты идут дальше: они умеют сами ходить по сайтам, работать с файлами на диске, управлять почтой, календарем и даже совершать покупки. В конце 2025 года, по словам Тушканова, такие агенты стали для разработчиков стандартным инструментом: можно отправить боту описание бага, уйти пить кофе и вернуться к почти готовому pull‑request. На рынок вышли и потребительские решения: от браузерных ассистентов, которые обещают «собрать вам корзину продуктов по рецепту», до агентов‑консьержей вроде Moltbot, которому доверяют доступ к почте, таск‑менеджеру и календарю. Появился даже проект, где энтузиаст научил бота управлять всей пользовательской цифровой жизнью по командам из мессенджера. Как нетрудно догадаться, уязвимостей там хватало: от чрезмерных платежей «за курсы личной эффективности» до потенциальной установки вредоносных программ.

Чтобы понять, как к этому относится аудитория, «Лаборатория Касперского» летом 2025 года опросила 1001 жителя крупных российских городов. Оказалось, что люди уже вовсю используют нейросети в сферах, где ошибка может стоить дорого. 27% из тех, кто прибегает к помощи ИИ, консультируются с ним по медицинским вопросам, 24% — по финансовым, 18% — по юридическим. Примерно каждый десятый из этих пользователей готов полностью полагаться на получаемые рекомендации. При этом в целом к безопасности нейросетей отношение настороженное: 67% считают их полностью или частично небезопасными. Больше всего людей пугает перспектива кражи или утечки данных (63%), получение недостоверной или устаревшей информации (60%) и риск того, что ИИ отучит думать своей головой (54%). Половина опрошенных боится получить вредный совет, который навредит здоровью или работе, а 38% тревожатся, что постоянное общение с ботами вытеснит человеческое. Хорошая новость — меры предосторожности хотя бы иногда соблюдают 86% пользователей: 63% не делятся с нейросетями персональными и конфиденциальными данными, 53% перепроверяют ответы, 49% не дают доступ к файлам и фотогалерее, 25% запрещают использовать переписки для обучения моделей, а 21% вообще регулярно чистят историю общения.

Вывод Тушканова одновременно оптимистичный и тревожный. С одной стороны, 2026 год действительно может стать годом ИИ‑агентов, которые снимут с людей массу рутины — от мониторинга инфраструктуры до сбора документов для налоговой. С другой — чем больше задач мы передаем агентам, тем выше ставки. Галлюцинации, промпт‑инъекции, умение злоумышленников подсовывать агентам изощренные инструкции в виде «невинных» сайтов и файлов делают такие системы угрозой не меньшей, чем спасением. Поэтому, помимо обучения пользователей и разработчиков, критичными становятся классические защитные решения: теперь они должны оберегать не только человека от вирусов, но и его цифрового помощника от того, чтобы тот, к примеру, не скачал и не запустил вредонос от имени хозяина. Не случайно компания уже выпустила обучающий курс для разработчиков ИИ‑систем и усиливает свои продукты технологиями поиска уязвимостей в AI‑сервисах.

Серые лебеди кибернастоящего

Финальный аккорд конференции — доклад Александра Гостева о так называемых «серых лебедях» цифрового будущего. В отличие от черных лебедей, это не абсолютно непредсказуемые катастрофы, а сценарии, которые сложно смоделировать, но вполне возможно представить. Первый — атака на время.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 3

Практически все, что мы делаем в цифровом мире — от банковских транзакций до расследований инцидентов — держится на точном и синхронизированном времени, которое обеспечивают серверы NTP и цепочка доверенных источников. Если атаковать не конечные устройства, а первичные источники — атомные часы, GPS‑спутники — и очень аккуратно подмешивать небольшие, нерегулярные искажения, можно получить мир, где у разных систем чуть‑чуть расходятся временные шкалы. Сертификаты внезапно становятся недействительными, клиринг в банках дает сбои, логи теряют связность. Это не «конец времени», а конец единой объективной его версии, без которой сложные инфраструктуры начинают скрипеть.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 4

Второй сценарий — «крах данных», постепенная утрата накопленных с 1970‑х по 2020‑е массивов знаний из‑за устаревания форматов, проприетарных баз, программных сред и банальной физической деградации носителей. Системной миграции исторически почти не было: переносили в будущее только то, что прямо приносило деньги. В результате образуются «цифровые острова», для которых уже нет ни подходящего софта, ни специалистов. Даже ИИ, обученный на современных данных, не всегда поможет: он просто не увидит того, что потеряно. Третий — кризис интеллектуальной собственности в эпоху ИИ: когда несколько крупных AI‑систем, работающих на схожих датасетах, приходят к одним и тем же эффективным методам в фарме или материаловедении, компании спешат запатентовать как можно более широкие классы решений. Возникает хаос перекрывающихся патентных притязаний, и целые области исследований становятся юридически токсичными — университеты и независимые лаборатории уходят из них, опасаясь судебных исков.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 5

Отдельный «лебедь» касается криптографии. Мир давно следит за квантовыми компьютерами и готовится к их возможному влиянию, разрабатывая постквантовые алгоритмы. Но гораздо более болезненным может стать внезапный прорыв в классической математике — открытие алгоритма, который радикально упрощает факторизацию или вычисление дискретных логарифмов на обычных компьютерах. В один момент теряют надежность RSA и криптография на эллиптических кривых, рушится инфраструктура открытых ключей, а весь когда‑либо перехваченный зашифрованный трафик оказывается потенциально читаемым. У индустрии на такой случай нет готового плана, а массовый «переезд» на альтернативные схемы, которые еще не обкатаны, может сам по себе стать источником уязвимостей.

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 6

Не менее жестко звучат сценарии «киберКубы» — вынужденной цифровой блокады целой страны через манипуляции с BGP, отзыв критических сертификатов и саботаж подводных кабелей, и «киберэкотерроризма», когда злоумышленники не выводят завод из строя, а едва заметно меняют настройки систем контроля выбросов, годами отравляя окружающую среду. Добавьте к этому возможный солнечный супершторм уровня события Кэррингтона с десятками тысяч спутников на низких орбитах, каскадом столкновений и геомагнитными бурями, выводящими из строя энергосистемы. В сухом остатке — орбита как зона повышенного риска, GPS и спутниковая связь как ненадежная инфраструктура и очень дорогое, сложное «возвращение на Землю» для многих сервисов. Наконец, еще один серый лебедь — «конец сказки об ИИ»: не технический крах, а серия громких разочарований и переоценок, когда выяснится, что многие миллиарды инвестиций в ожидании быстрого наступления AGI не окупаются. Рынок уйдет от грандиозных обещаний к приземленным задачам — рекомендациям, антифроду, узкоспециализированным моделям, а ИИ окончательно превратится в инженерный инструмент, а не в религию.

Если попытаться собрать все эти сюжеты воедино, вырисовывается любопытная картина. На одном полюсе — очень конкретные проблемы сегодняшнего дня: бухгалтер, который по невнимательности открывает «досудебную претензию» в ЭДО; врач, спешащий ответить на жалобу пациента и запускающий архив с бэкдором; пользователь, который по телефону «от налоговой» сам кладет деньги на карту мошенника через «обратный NFC». На другом — системные риски уровня глобальной синхронизации времени, устойчивости криптографии и космической инфраструктуры. Между ними — нейросети и ИИ‑агенты, которые могут одинаково эффективно как помогать закрывать дыры, так и создавать новые. И в центре всего этого — люди: пользователи, разработчики, специалисты по безопасности, руководители, которым приходится принимать решения в мире, где границы между ИТ, бизнесом и повседневной жизнью окончательно стерлись.

Естественный отбор в эпоху ИИ

Уже после завершения официальной части мне удалось получить эксклюзивный комментарий Сергея Голованова, главного эксперта «Лаборатории Касперского» на один из самых неудобных вопросов современности: станем ли мы глупее на фоне стремительно умнеющих алгоритмов?

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 7

По мнению эксперта, прогресс ИИ неоспорим. Если еще пару лет назад вероятность того, что сгенерированный нейросетью код окажется рабочим, составляла около 20%, то сегодня этот показатель вырос до 80%. В рутинных задачах — будь то написание кода или базовая медицинская диагностика — ИИ все чаще оказывается точнее и быстрее человека. Но в этом же кроется и новый вызов для рынка труда.

«Проблема деградации навыков в рутине существует, но она порождает своего рода „цифровой естественный отбор“, — считает Сергей Голованов. — Возьмем специалистов SOC (центров мониторинга кибербезопасности). Те, кому инциденты и анализ кода не нужны, кто не хочет разбираться в сути процессов, навсегда останутся на первой линии поддержки. ИИ их не просто заменит, он сделает их уровень компетенций неактуальным».

Однако для тех, у кого сохраняется живой интерес к делу, нейросети станут мощнейшим катализатором роста. По аналогии с тем, как в 90-е и 2000-е произошло обесценивание массового высшего образования, сейчас происходит трансформация понятия «экспертность».

«Истинный рост начинается там, где человеку хочется докопаться до проводов, до математики, до самой сути, а не просто получить ответ от чат-бота, — резюмирует Голованов. — ChatGPT и его аналоги в конечном итоге повысят качество реального образования. Люди, которые будут постоянно перепроверять нейросеть и вникать в детали, станут элитой. Умных людей в абсолютных цифрах, возможно, станет меньше, но они будут на порядок умнее и профессиональнее текущего среднего уровня. Это естественный отбор в действии».

Киберизоляция страны, естественный отбор в эпоху ИИ и проблема времени. Рис. 8

Я вынес с этой пресс‑конференции два практических вывода. Первый: 2026 год потребует от компаний зрелого разговора о кибербезопасности на уровне советов директоров, а не только ИТ‑служб. SOC, XDR, обучение сотрудников, выбор ИИ‑инструментов — это уже не «издержки прогресса», а условие выживания бизнеса. Второй: пользователям придется научиться относиться к своим данным и цифровым помощникам с тем же уважением, с каким мы относимся к деньгам и здоровью. Нейросеть, которая пишет вам гороскоп или диету, завтра может решать, как лечить, во что вкладывать и к какому юристу идти. А звонок «от службы безопасности банка» все так же начинается с простого «алло». В этой смеси старых и новых угроз, кажется, и предстоит жить в 2026‑м — а наша задача, как медиа и как сообщества «киберзнатоков», сделать так, чтобы эта жизнь оставалась по возможности безопасной.

Похожие статьи