Применение искусственного интеллекта для задач информационной безопасности

Иллюстрация предоставлена пресс-службой ГК
Максим Бузинов, руководитель R&D лаборатории ГК «Солар»:
Машинное обучение как класс способных к обучению алгоритмов, является составляющей методов и инструментов искусственного интеллекта. При этом ИИ не обязательно должен использовать только алгоритмы ML и может не использовать их вовсе. Например, быть построен на методах компьютерной алгебры, теории графов и прочее. В ГК «Солар» есть отдел анализа данных и моделирования, где ведутся исследования в области и ML и ИИ. Результаты исследований становятся сначала прототипами, а затем функциями продуктов компании.

Мы работаем в двух направлениях — изучаем алгоритмы ML, которые себя уже зарекомендовали и алгоритмы, где больше неопределенности с возможностью получить уникальные преимущества. В первом случае — это анализ естественного языка для классификации признаков риска и профилирования, детектирование образов в изображениях для выявления чувствительных данных, а также идентификация биометрических данных для выявления компрометации учетных данных. Во втором случае — это системы выявления аномалий, сложных угроз и цепочек событий ИБ в сильно разрозненных данных из множества источников и СЗИ.

На этой неделе мы получили очередной патент на технологию по оптимизации средств защиты информации на основе поведенческих паттернов, которые поставляет также запатентованный нами модуль поведенческого анализа UBA. Данные технологии, а также технологии ML, использующие нейросети, реализованы в DLP-системе Solar Dozor, и мы ищем пути расширения использования наших разработок в области ИИ в остальных решениях продуктового портфеля компании.

В условиях, когда задачи ИИ хорошо формализованы и описаны, а объем данных для обучения достаточен и постоянно обновляется, он стабильно решает уже имеющиеся задачи, но делает это намного быстрее и с качеством, сравнимым с работой сотрудника безопасности. Обычно стабильное преимущество ИИ дает в детектировании чувствительной информации с заданными свойствами. Например, детектирование банковской тайны — сведений, хорошо описанных PCI DSS или обнаружение хорошо измеримых известных атак. Кроме того, ИИ дополняет и обогащает ИБ в ситуациях, когда данные практически невозможно обработать человеку в виду их сложности или объема, а задачи безопасности слабо формализованы. Например, это выявление новых неизвестных ранее угроз, выявление подозрительных активностей и аномалий поведения как пользователей, так и устройств или оборудования. Дополняющее преимущество позволяет выявить то, что скорее всего не может выявить традиционный подход или сотрудник безопасности. При этом нужно быть готовым к риску появления ложных срабатываний или непрозрачных выводов ИИ.

Классические алгоритмы ML уже хорошо зарекомендовали себя при решении рутинных задач специалиста по информационной безопасности. Если говорить о дальнейшем развитии ML и ИИ моделей, то в последние несколько лет отмечается тренд на успешный рост комплексных DL-решений с т.н. креативными способностями. Правда, специалисты data science понимают, что эта креативность — следствие планомерного построения механизма, решающего конкретную задачу с заранее заложенными закономерностями, особенностями физики объектов. Например, уравнений суммаризации и восстановления образов и фильтрации шума в изображениях. В добавок для эффективного решения этих задач человечеством накоплен колоссальный объем данных для обучения и тестирования. В сфере ИБ, очевидно, насчет этого есть ограничения в силу специфики самой отрасли — прежде всего это постоянная работа с чувствительными данными и множество ограничений по работе с ними.

Если говорить о сложных угрозах, а именно для них рационально использовать ИИ, то пока еще нет такого глобального доступного дата-сайентистам озера данных в силу их чувствительности. Вместе с этим постоянно появляются новые технические каналы передачи данных, меняется характер сложных атак и угроз. Если изображения котика не меняется за 100 лет, то способы работы злоумышленников, которые должен выявлять ИИ, меняются ежедневно. Например, масштаб дипфейков, связанный как с прямыми угрозами — мошенничество, так и с новыми типами угроз — кражей интеллектуальной собственности, идентифицирующей уникальные качества человека (голос, эмоции, почерк, вкусы). В перспективе это появление «темных ИИ» помощников — генеративных моделей, обученных на вредных данных. В даркнете уже гуляют вполне развитые ИИ, способные рассказать, как можно реализовать ту или иную угрозу. Конечно, заядлому злоумышленнику они не помогут, но дать вредные советы способны. Это тоже скрытая угроза и фактор, с которым нужно считаться. Ощутимой проблемой видится и распространение автоматических сборщиков данных о человеке и его социальных данных, что может использоваться для обучения ИИ в таргетированных атаках.

Сегодня крайне мало экспертов ИБ, которые могут обучать ИИ для обеспечения информационной безопасности, а с учетом сильно разнящейся инфраструктуры предприятий и особенностей бизнес-процессов работы с данными, говорить об универсальном для всех решении ИИ тоже пока преждевременно, но работа в этом направлении безусловно ведется. На днях вступили в силу новые ГОСТы по ИИ, которые позволят значительно продвинуться в разработке помощников ИИ в области ИБ и решений по борьбе со сложными атаками.