ИИ в кибербезопасности

В обзоре аналитического доклада Всемирного экономического форума рассматривается, как искусственный интеллект трансформирует практики кибербезопасности в корпоративном и государственном секторе. В материале использованы результаты опросов и кейсы технологических корпораций, банков, городских служб и центров реагирования на инциденты.
Кибератаки становятся все быстрее и сложнее, и все чаще в них задействован искусственный интеллект. Технологии, которые помогают злоумышленникам изучать уязвимости и писать убедительные поддельные письма, одновременно открывают для специалистов по безопасности новые инструменты защиты. По оценкам международных экспертов, все больше организаций внедряют алгоритмы анализа данных и языковые модели для охраны своих систем, и значение этих подходов в ближайшие годы будет только расти.
Сегодня компании и государственные структуры живут в условиях, когда цифровая инфраструктура постоянно растет и усложняется. Облачные сервисы, удаленная работа, мобильные устройства и устройства интернета вещей открывают все новые точки входа. Команды безопасности не успевают вручную разбирать поток сигналов и инцидентов, а регуляторы требуют более четкого контроля над обработкой данных и устойчивостью цифровых сервисов. В этих условиях одних подходов на базе фиксированных сигнатур и жестких правил уже недостаточно.
Злоумышленники используют искусственный интеллект для автоматизированного поиска уязвимостей, подбора паролей и создания писем, которые трудно отличить от настоящих сообщений от банка или коллеги. Системы защиты, которые не умеют учиться на новых данных и видеть более сложные связи, проигрывают в скорости. Там, где в инфраструктуру и процессы встраиваются алгоритмы анализа, время обнаружения и сдерживания атаки сокращается с недель до часов, а ущерб удается уменьшить за счет более раннего вмешательства.
Искусственный интеллект уже работает в разработке и сопровождении программного обеспечения. Специализированные системы автоматически просматривают большие объемы кода и конфигураций, ищут опасные места и предлагают варианты исправления. Благодаря этому удается находить и устранять ошибки еще до того, как продукт выходит к пользователям, и улучшать безопасность открытых проектов, от которых зависят многие сервисы. Раньше такую работу приходилось выполнять вручную, и она занимала месяцы.
В анализе киберугроз модели, обученные на накопленных данных о прошлых атаках, помогают собирать разрозненные сигналы в единую картину. Они сравнивают текущие события с тем, что уже происходило, и показывают, какие элементы складываются в знакомый сценарий. Это особенно важно для сложных, многоходовых атак, растянутых во времени и затрагивающих разные системы. Человеку сложно удерживать в голове весь объем контекста, а алгоритм хорошо справляется с задачей поиска закономерностей в больших массивах данных.
Отдельное направление — противодействие фишингу. Языковые модели умеют улавливать характерные признаки обманных писем: давление на адресата, попытку вызвать страх или азарт, ссылки на авторитет. В отличие от фильтров, которые ориентируются на известные шаблоны, такие системы могут заметить новую схему, еще не описанную в справочниках. Для банков и крупных компаний это становится дополнительным уровнем защиты в зоне, где очень много зависит от того, доверится ли человек тексту письма.
Искусственный интеллект помогает разгрузить и сами команды безопасности. Специализированные системы берут на себя предварительный разбор инцидентов: собирают сведения, сопоставляют с прошлым опытом, формулируют первичное заключение и предлагают шаги, которые можно предпринять. В некоторых случаях автоматический разбор охватывает почти весь поток ежедневных оповещений. Это снижает нагрузку на специалистов и позволяет им заниматься наиболее сложными случаями, где без человеческого опыта и интуиции не обойтись.
Развиваются и средства защиты пользователей. Появляются браузерные расширения и мобильные приложения, которые проверяют сайты за доли секунды и закрывают доступ к опасным страницам, не требуя от человека специальных знаний. Такие решения опираются на модели, обученные на больших наборах примеров безопасных и вредоносных ресурсов, и обновляются по мере появления новых схем обмана. Для пользователя это незаметный механизм, который снижает риск попасть на мошеннический сайт из письма или мессенджера.
Следующий шаг — системы, которые могут действовать более самостоятельно. Они не только оценивают ситуацию, но и выполняют согласованные заранее действия: ограничивают доступ, выключают уязвимый сервис, подготавливают команды для администраторов. В среде разработки такие агенты анализируют архитектуру, сопоставляют ее с накопленным опытом прошлых инцидентов и предупреждают о слабых местах. В области подготовки к возможным атакам используются цифровые тренажеры, где искусственный интеллект помогает проигрывать сложные сценарии и смотреть, как на них реагирует организация.
Одновременно растет понимание, что автоматизация не снимает ответственность с людей. Слепая вера в безошибочность алгоритмов создает риск: если команда не понимает, как принимает решения система, ей будет трудно вовремя заметить сбои или манипуляции. Уже сейчас обсуждаются задачи защиты самих моделей: нужно следить за качеством и происхождением данных, ограничивать доступ к критическим компонентам, мониторить поведение систем и предусматривать способы остановить их работу при подозрении на ошибку.
Искусственный интеллект в кибербезопасности выводит на первый план вопросы подготовки кадров и организации работы. Нужны специалисты, которые одновременно понимают принципы работы алгоритмов, характер современных атак и правовые рамки. Университетам приходится менять учебные планы, а исследовательским группам — уделять больше внимания понятности, устойчивости и ответственности интеллектуальных систем. Это область, где технические решения тесно переплетаются с этикой, правом и управлением.
В результате складывается двойственная картина. С одной стороны, искусственный интеллект уже стал важным элементом защиты: без него трудно успевать за скоростью и разнообразием атак. С другой — сами по себе модели не решают вопросы стратегии, приоритетов и ответственности. От того, как организация выстраивает работу с данными, распределяет полномочия между людьми и системами и относится к ограничениям технологий, зависит, станет ли искусственный интеллект опорой кибербезопасности или источником новых уязвимостей.
Полный обзор Empowering Defenders: AI for Cybersecurity M A Y 2 0 2 6

![$news['icon']](https://research.spbstu.ru/userfiles/images/news/chelovek_v_arhitekture_klientskogo_opita2.jpg)
![$news['icon']](https://research.spbstu.ru/userfiles/images/news/paradoksi_rosta_mirovoy_stroyki.jpg)