Искусственный интеллект — перспективная технология для защиты информации, которая уже активно применяется в ИБ-продуктах. Ее главное преимущество — способность обрабатывать большие объемы вводных данных. Однако доверять ИИ принятие решений в области безопасности пока рано, поскольку это может привести к диаметральным последствиям.
В 2023 г. объем мирового рынка технологий искусственного интеллекта (ИИ) для обеспечения информационной безопасности (ИБ) достиг $22,4 млрд. Ожидается, что в период с 2023 по 2028 гг. его рост составит в среднем 21,9% в год. При этом к 2028 г. объем рынка достигнет $60,6 млрд, сообщает исследовательская компания MarketsandMarkets.
Рост рынка ИИ-технологий в сфере ИБ является следствием увеличения спроса на решения, способные обнаруживать угрозы информационной безопасности в режиме реального времени. Еще один фактор — неуклонный рост количества организаций во всем мире, которые осознают важность проактивной защиты и быстроты реакции на кибервторжения. В ближайшие несколько лет разработчики, внедряющие в свои ИБ-решения технологии искусственного интеллекта, будут сконцентрированы на использовании ИИ для автоматизации рутинных задач по реагированию на инциденты, сокращению времени реагирования и минимизации ошибок, вызванных человеческим фактором.
Способы и преимущества использования ИИ
Искусственный интеллект сейчас активно развивается, а сфер и сценариев для его применения с каждым днем становится все больше, говорит замгендиректора по технологическому развитию группы «Иннотех» Дмитрий Гредников. «В области информационной безопасности способы использования искусственного интеллекта стали довольно разнообразны: специалисты применяют ИИ для защиты от внешних угроз, например, в системах детектирования ботов, когда технологии отделяют реальных клиентов от ботов или автоматизированных действий с украденными персональными данными. Другой вариант — это защита от внутренних угроз в виде аналитики поведения сотрудников. Такой метод защиты представляет собой отслеживание риска утечек персональных данных, посещение неблагоприятных сайтов и др., что также определяет уровень угрозы, реагирует на инцидент и отправляет уведомление о риске. Помимо этого, ИИ эффективен в борьбе с финансовыми преступлениями — компании используют технологии в системах финансового мониторинга», — рассказывает Гредников.
Основные направления использования алгоритмов машинного обучения в сфере ИБ — это снижение нагрузки на офицера информационной безопасности и создание инструментов, которые снижают влияние человеческого фактора при внедрении средств ИБ, объясняет директор по инновационным проектам группы InfoWatch Андрей Арефьев. Под снижением нагрузки на специалистов имеется в виду, в частности, использование машинного обучения при внедрении инструментов ИБ, например, использование алгоритмов для кластеризации событий, связанных с утечками данных, на основании которых будут выстраиваться политики безопасности, рассказывает эксперт.
Еще одно направление — использование ИИ-алгоритмов в процессе эксплуатации средств ИБ для приоритезации инцидентов. В DLP-системе (системе защиты от утечек — прим. ред.) отражается большое количество событий, и технологии машинного обучения по набору признаков определяют среди них особенно важные или необычные и выделяют их с тем, чтобы офицер безопасности обратил на них более пристальное внимание. А использование алгоритмов для распознавания документов текстов и изображений при определении служебных документов, паспортов и т. д. является обязательным, считает Арефьев.
Однако на сегодняшний день не существует модели, способной в автоматическом режиме выявлять угрозы на любом наборе данных в любой среде, предупреждает главный архитектор программного обеспечения в компании ITentika Артур Чеканов. «Но алгоритмы машинного обучения могут существенно упростить, оптимизировать и улучшить работу на различных этапах обеспечения информационной безопасности. К примеру, они могут использоваться для выявления аномалий в работе программ, включая анализ несвязанных на первый взгляд источников данных, а также для классификации угроз с целью дальнейшего более детального анализа. Также стоит упомянуть применение ряда методов ИИ для улучшения процесса идентификации (например, распознавание лица или голоса) и анализа поведения пользователя с целью выявления потенциального несанкционированного доступа», — приводит примеры эксперт.
«В нашем продуктовом портфеле технологии ИИ применяются для профилирования поведения пользователей и сервисных сущностей, и состояния сети. В случае выявления отклонений обученная модель сигнализирует об этом аналитику, который проводит углубленный анализ и соответствующие расследование», — рассказывает, в свою очередь, заместитель генерального директора группы компаний «Гарда» Рустэм Хайретдинов.
«Классическая сигнатура способна обнаружить лишь результат работы одного конкретного вредоноса, в то время как записи, основанные на эвристике, предоставляют машине некоторую свободу принятия решений, — продолжает Хайретдинов. — Они могут обнаруживать целые семейства атак, объединяемые по набору признаков. В результате вместо того, чтобы держать смену специалистов начального уровня, которые на потоке детектируют отдельные экземпляры вредоносного программного обеспечения, можно повысить уровень экспертизы в компании. И тогда доверить разработку новых записей детектирования 1-2 высококвалифицированным специалистам, каждое добавление в контент продуктов будет «закрывать» собой целый фронт защиты».
Проблемы с использованием ИИ
В средствах защиты данных искусственный интеллект используют для упрощения и автоматизации трудоемких задач, объясняет Виктор Рыжков, руководитель направления развития бизнеса по защите данных Positive Technologies. Одной из таких является необходимость классификации по степени критичности всех данных, которые хранит и обрабатывает компания. В современной организации, где объем информации исчисляется несколькими десятками, сотнями, тысячами терабайт, сделать это вручную невозможно, говорит эксперт.
«Производители средств защиты понимают эту проблему и уже применяют машинное обучение, компьютерное зрение и другие методы ИИ для ее решения, — рассказывает Рыжков. — Однако текущие модели и подходы хорошо работают только в лабораторных условиях производителя, но показывают низкую эффективность «в дикой природе». На практике специалисты ИБ в компаниях часто не понимают логику классификации данных, которые применяют эти модели, и вынуждены регулярно корректировать их и обрабатывать ложные срабатывания. Как правило, этот механизм начинают использовать только как вспомогательный, а за основной берется более привычный и классический метод классификации по шаблонам — пусть топорный и тоже малоэффективный, но хотя бы простой и понятный широкому кругу специалистов по информационной безопасности».
Текущая ситуация с классификацией данных является ключевой проблемой, которая не позволяет компаниям выстроить эффективную защиту и, в конечном итоге, приводит к печальной статистике по утечкам и другими известным сегодня инцидентами несанкционированного доступа к данным. Для эффективной защиты стоит переосмыслить подход применения ИИ в решении задачи классификации, добавляет эксперт.
Без человека не обойтись
Для принятия решений в критических процессах и в отношении критически важных систем искусственный интеллект не подходит, указывают эксперты. Технологиям машинного обучения можно доверить обработку больших объемов данных и извлечение из него событий, на которые стоит обратить особое внимание, также можно доверить систематизацию внедрения средств ИБ на уровне кластеризации событий DLP, говорит Андрей Арефьев. Но при этом политики безопасности, которые строятся на основе этой кластеризации, должен определять уже человек. «Главная задача алгоритмов — предоставить качественные вводные, а принятие решений на основе этих вводных по-прежнему остается за человеком. Причем алгоритмы машинного обучения не должны принимать не только юридически значимые решения, но и решения, которые могут заблокировать бизнес-процессы в компании», — говорит Арефьев.
Например, алгоритму можно поручить контролировать отправку документов через почтовый клиент, но давать возможность автоматически блокировать всю исходящую почту в случае инцидента уже не стоит, потому что процент ошибок есть у любого алгоритма, и при автоматической блокировке велик риск просто поставить на стоп работу всего бизнеса. «Можно добиться, чтобы алгоритмы совершали минимум ошибок и даже меньше, чем человек, но это все равно не гарантирует их полное отсутствие. Так, доказано, что алгоритмы распознавания образов могут делать свою работу более точно, чем человек, но такие алгоритмы можно обмануть. Поэтому все критические решения должен принимать человек», — объясняет эксперт.
С ним согласен Рустэм Хайретдинов, который приводит еще один пример ситуации, когда принятие решений нельзя доверить ИИ. «К примеру, реагирование в форме изоляции сетевого сегмента, что само по себе достаточно ответственный шаг, доверять машине пока рано. Представим, что был изолирован сегмент сети, отвечающий за работоспособность системы пожаротушения. А нести ответственность некому, так как решение принял ИИ. Поэтому до момента, когда мы сможем доверять ИИ настолько рискованные вопросы, где под угрозой может быть жизнь человека, пройдет еще немало времени», — считает Хайретдинов.
Менеджер по продуктам Innostage Евгений Сурков считает необходимым провести классификацию рисков от использования искусственного интеллекта и четко понять весь возможный спектр последствий для того или иного действия. «Действия возможны в тех процессах, где созданы рамки, и прописанные худшие возможные сценарии несут приемлемые риски, — говорит он. — Также необходимый баланс рисков и пользы может быть соблюден, если система дополняет, обогащает сведения, полученные оператором из надежных источников, некоторыми гипотезами, подсвечивает аномалии. При этом на ранних этапах внедрения ИИ такие подсказки полезны только уже достаточно опытному оператору. Новичка они введут в ступор, либо повысят общие риски, отправив по неправильному пути. Опытный оператор и система ИИ способны к синергии, совместному обучению уже на самых первых этапах внедрения».
По мере роста зрелости решений, искусственный интеллект будет способен увеличить свое участие в обучении начинающих специалистов. Но ИИ будет опасен в случае, если ему будут доверены полномочия по полному автоматическому реагированию с управляющими воздействиями на инфраструктуру. Негативное влияние возможно при бесконтрольном использовании в вопросах управления персоналом, добавляет Сурков.
В то же время, по мнению директора по взаимодействию с органами государственной власти группы компаний «Гарда» Павла Кузнецова, безопасность искусственного интеллекта в каких-либо дополнительных регуляторных мерах не нуждается. «Компьютерные системы, на которых функционируют те же большие языковые модели, архитектурно ничем не отличаются от любых других, — говорит он. — И компрометацию систем ИИ, в том числе специфические атаки типа poisoning (когда злоумышленник портит данные, на которых обучают модель), следует рассматривать с точки зрения привычных рисковых моделей. Они строятся на критических активах (массивы данных, к которым имеет доступ ИИ) и аудитории, взаимодействующей с системами ИИ. Именно поэтому она подвержена риску дезинформации со стороны скомпрометированного, например, чат-бота. Методы детектирования злоумышленников в системах с точки зрения кибербезопасности при этом будут совершенно аналогичными прочим».