Автор: Сридхар Муппиди, научный сотрудник IBM и главный технический директор, IBM Security
Источник: Массачусетский технологический институт
Мы обсуждаем преимущества искусственного интеллекта (ИИ) для общества в течение многих лет, но только сейчас люди, наконец, видят его повседневное влияние. Но почему сейчас? Что сделает ИИ в 2023 году более эффективным, чем когда-либо?
Во-первых, знакомство потребителей с появляющимися инновациями в области искусственного интеллекта повышает их признание. Генеративный ИИ вошел в нашу повседневную жизнь — от написания песен и синтеза изображений, которые раньше можно было только вообразить, до написания диссертаций университетского уровня. Во-вторых, мы также достигли точки перегиба на кривой зрелости корпоративных инноваций в области искусственного интеллекта, и в отрасли кибербезопасности этот прогресс может произойти намного быстрее.
Потребительское использование ИИ и его применение в сфере безопасности создает уровень доверия и эффективности, необходимый для реального воздействия на центры управления безопасностью (SOC). Чтобы пролить больше света на эту эволюцию, давайте подробнее рассмотрим, как технологии на основе ИИ попадают в руки аналитиков по кибербезопасности.
Повышение скорости и точности кибербезопасности с помощью искусственного интеллекта
После многих лет экспериментов и усовершенствований с реальными пользователями в сочетании с непрерывным совершенствованием самих моделей ИИ возможности кибербезопасности, основанные на ИИ, больше не являются просто модными словечками первых пользователей или простыми шаблонами и возможностями, основанными на правилах. Данные взорвались, как и сигналы и уникальные идеи. Алгоритмы созрели и стали более способными контекстуализировать всю поступающую информацию — от различных вариантов использования до беспристрастных необработанных данных. В течение многих лет мы ждали обещания искусственного интеллекта.
Для специалистов по кибербезопасности это означает способность обеспечить революционную скорость и точность своей защиты и, возможно, в конечном итоге получить преимущество в борьбе с киберпреступниками. Кибербезопасность — это отрасль, которая по своей сути опирается на скорость и точность, которые являются неотъемлемыми характеристиками искусственного интеллекта. Службы безопасности должны точно знать, где искать и что искать. Они зависят от способности быстро двигаться. Однако в мире кибербезопасности скорость и точность не гарантируются, главным образом, из-за двух проблем в отрасли: нехватки навыков и стремительного роста данных из-за сложности инфраструктуры.
Реальность такова, что конечное число людей, работающих сегодня в сфере кибербезопасности, несут в себе бесконечное количество киберугроз. Согласно исследованию IBM, защитников намного больше, чем тех, кто реагирует на инциденты кибербезопасности: 68% специалистов по реагированию на инциденты кибербезопасности заявили, что обычно реагируют на несколько инцидентов одновременно. Кроме того, через предприятия проходит больше данных, чем когда-либо, и предприятия становятся все более сложными. Пограничные вычисления, Интернет вещей и удаленные требования меняют современную бизнес-архитектуру, создавая лабиринт значительных слепых зон для групп безопасности. Если эти команды не могут «видеть», то их операции по обеспечению безопасности не могут быть точными.
Современный сложный искусственный интеллект может помочь устранить эти барьеры. Но чтобы быть эффективным, ИИ должен заслужить доверие, поэтому мы должны установить вокруг него ограждения, чтобы обеспечить надежные результаты безопасности. Например, когда вы движетесь слишком быстро ради скорости, результатом будет неуправляемая скорость, которая приведет к хаосу. Но когда ИИ доверяют (то есть данные, на которых мы обучаем наши модели, беспристрастны, модели ИИ прозрачны, недешевы и объяснимы), он может обеспечить надежную скорость. В сочетании с автоматизацией это может значительно улучшить нашу оборонительную позицию, автоматически предпринимая действия на протяжении всего жизненного цикла обнаружения, расследования и реагирования на инциденты, не полагаясь на вмешательство человека.
«Правая рука» команды сетевой безопасности
Распространенным и хорошо зарекомендовавшим себя на сегодняшний день вариантом использования в кибербезопасности является обнаружение угроз, когда ИИ извлекает дополнительный контекст из больших и разнообразных наборов данных или обнаруживает аномалии в моделях поведения пользователей. Давайте посмотрим на пример:
Представьте, что сотрудник по ошибке нажимает на фишинговое электронное письмо, запуская загрузку вредоносного ПО в свою систему, позволяя злоумышленнику перемещаться в боковом направлении и действовать скрытно в среде жертвы. Этот злоумышленник пытается обойти все существующие инструменты безопасности в среде, выискивая уязвимости, которые можно монетизировать. Например, они могут искать взломанные шифры или открытые протоколы для использования и развертывания программ-вымогателей, что позволяет им захватывать критически важные системы в качестве рычага против предприятия.
Теперь давайте поместим ИИ поверх этого общего сценария: ИИ заметит, что пользователь, который нажал на это письмо, теперь ведет себя по-другому. Например, он обнаруживает изменения в пользовательском потоке и его взаимодействия с системами, с которыми он обычно не взаимодействует. Глядя на различные процессы, сигналы и взаимодействия, ИИ будет анализировать это поведение и помещать его в контекст, чего не могут сделать статические функции безопасности.
Поскольку злоумышленники не могут имитировать цифровое поведение так же легко, как они могут имитировать статические характеристики, такие как чьи-либо учетные данные, поведенческие преимущества, которые AI и автоматизация дают защитникам, делают эти возможности безопасности еще более мощными.
Теперь представьте, что этот пример умножается на сотню, или тысячу, или десятки тысяч и сотни тысяч, потому что это примерно количество потенциальных угроз, с которыми конкретный бизнес сталкивается в данный день. Если сравнить эти цифры с сегодняшней средней командой SOC из 3–5 человек, то у злоумышленников, естественно, будет преимущество. Но с помощью ИИ, поддерживающего команды SOC с расстановкой приоритетов на основе рисков, эти команды теперь могут сосредоточиться на реальных угрозах среди шума. Кроме того, ИИ может помочь им ускорить расследование и реагирование — например, автоматически извлекать данные из разных систем для получения дополнительных доказательств, связанных с инцидентом, или обеспечивать автоматизированные рабочие процессы для ответных действий.
IBM привносит подобные возможности искусственного интеллекта в свою технологию обнаружения угроз и реагирования на них с помощью пакета QRadar. Фактор, меняющий правила игры, заключается в том, что эти ключевые возможности искусственного интеллекта теперь объединены единым аналитическим интерфейсом, охватывающим все основные технологии SOC, что упрощает их использование на протяжении всего жизненного цикла мероприятия. Кроме того, эти возможности ИИ были усовершенствованы до такой степени, что им можно доверять, и они действуют автоматически с скоординированными ответами без вмешательства человека. Например, группа IBM Managed Security Services использовала эти возможности искусственного интеллекта для автоматического закрытия 70 процентов предупреждений в течение первого года использования и ускорила сроки управления угрозами более чем на 50 процентов.
Сочетание искусственного интеллекта и автоматизации дает ощутимые преимущества в скорости и эффективности, в которых отчаянно нуждаются современные SOC. После многих лет тестирования и по мере развития инновации в области искусственного интеллекта могут оптимизировать использование времени защитниками за счет точных и ускоренных действий. Чем больше ИИ будет использоваться в сфере безопасности, тем быстрее он повысит способность групп безопасности работать, а отрасль кибербезопасности станет устойчивой и готовой адаптироваться к любым изменениям в будущем.
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
IBM 丨 AI в кибербезопасности: обещания прошлых лет стали реальностью
Автор: Сридхар Муппиди, научный сотрудник IBM и главный технический директор, IBM Security
Источник: Массачусетский технологический институт
Мы обсуждаем преимущества искусственного интеллекта (ИИ) для общества в течение многих лет, но только сейчас люди, наконец, видят его повседневное влияние. Но почему сейчас? Что сделает ИИ в 2023 году более эффективным, чем когда-либо?
Во-первых, знакомство потребителей с появляющимися инновациями в области искусственного интеллекта повышает их признание. Генеративный ИИ вошел в нашу повседневную жизнь — от написания песен и синтеза изображений, которые раньше можно было только вообразить, до написания диссертаций университетского уровня. Во-вторых, мы также достигли точки перегиба на кривой зрелости корпоративных инноваций в области искусственного интеллекта, и в отрасли кибербезопасности этот прогресс может произойти намного быстрее.
Повышение скорости и точности кибербезопасности с помощью искусственного интеллекта
После многих лет экспериментов и усовершенствований с реальными пользователями в сочетании с непрерывным совершенствованием самих моделей ИИ возможности кибербезопасности, основанные на ИИ, больше не являются просто модными словечками первых пользователей или простыми шаблонами и возможностями, основанными на правилах. Данные взорвались, как и сигналы и уникальные идеи. Алгоритмы созрели и стали более способными контекстуализировать всю поступающую информацию — от различных вариантов использования до беспристрастных необработанных данных. В течение многих лет мы ждали обещания искусственного интеллекта.
Для специалистов по кибербезопасности это означает способность обеспечить революционную скорость и точность своей защиты и, возможно, в конечном итоге получить преимущество в борьбе с киберпреступниками. Кибербезопасность — это отрасль, которая по своей сути опирается на скорость и точность, которые являются неотъемлемыми характеристиками искусственного интеллекта. Службы безопасности должны точно знать, где искать и что искать. Они зависят от способности быстро двигаться. Однако в мире кибербезопасности скорость и точность не гарантируются, главным образом, из-за двух проблем в отрасли: нехватки навыков и стремительного роста данных из-за сложности инфраструктуры.
Реальность такова, что конечное число людей, работающих сегодня в сфере кибербезопасности, несут в себе бесконечное количество киберугроз. Согласно исследованию IBM, защитников намного больше, чем тех, кто реагирует на инциденты кибербезопасности: 68% специалистов по реагированию на инциденты кибербезопасности заявили, что обычно реагируют на несколько инцидентов одновременно. Кроме того, через предприятия проходит больше данных, чем когда-либо, и предприятия становятся все более сложными. Пограничные вычисления, Интернет вещей и удаленные требования меняют современную бизнес-архитектуру, создавая лабиринт значительных слепых зон для групп безопасности. Если эти команды не могут «видеть», то их операции по обеспечению безопасности не могут быть точными.
Современный сложный искусственный интеллект может помочь устранить эти барьеры. Но чтобы быть эффективным, ИИ должен заслужить доверие, поэтому мы должны установить вокруг него ограждения, чтобы обеспечить надежные результаты безопасности. Например, когда вы движетесь слишком быстро ради скорости, результатом будет неуправляемая скорость, которая приведет к хаосу. Но когда ИИ доверяют (то есть данные, на которых мы обучаем наши модели, беспристрастны, модели ИИ прозрачны, недешевы и объяснимы), он может обеспечить надежную скорость. В сочетании с автоматизацией это может значительно улучшить нашу оборонительную позицию, автоматически предпринимая действия на протяжении всего жизненного цикла обнаружения, расследования и реагирования на инциденты, не полагаясь на вмешательство человека.
«Правая рука» команды сетевой безопасности
Распространенным и хорошо зарекомендовавшим себя на сегодняшний день вариантом использования в кибербезопасности является обнаружение угроз, когда ИИ извлекает дополнительный контекст из больших и разнообразных наборов данных или обнаруживает аномалии в моделях поведения пользователей. Давайте посмотрим на пример:
Представьте, что сотрудник по ошибке нажимает на фишинговое электронное письмо, запуская загрузку вредоносного ПО в свою систему, позволяя злоумышленнику перемещаться в боковом направлении и действовать скрытно в среде жертвы. Этот злоумышленник пытается обойти все существующие инструменты безопасности в среде, выискивая уязвимости, которые можно монетизировать. Например, они могут искать взломанные шифры или открытые протоколы для использования и развертывания программ-вымогателей, что позволяет им захватывать критически важные системы в качестве рычага против предприятия.
Теперь давайте поместим ИИ поверх этого общего сценария: ИИ заметит, что пользователь, который нажал на это письмо, теперь ведет себя по-другому. Например, он обнаруживает изменения в пользовательском потоке и его взаимодействия с системами, с которыми он обычно не взаимодействует. Глядя на различные процессы, сигналы и взаимодействия, ИИ будет анализировать это поведение и помещать его в контекст, чего не могут сделать статические функции безопасности.
Поскольку злоумышленники не могут имитировать цифровое поведение так же легко, как они могут имитировать статические характеристики, такие как чьи-либо учетные данные, поведенческие преимущества, которые AI и автоматизация дают защитникам, делают эти возможности безопасности еще более мощными.
Теперь представьте, что этот пример умножается на сотню, или тысячу, или десятки тысяч и сотни тысяч, потому что это примерно количество потенциальных угроз, с которыми конкретный бизнес сталкивается в данный день. Если сравнить эти цифры с сегодняшней средней командой SOC из 3–5 человек, то у злоумышленников, естественно, будет преимущество. Но с помощью ИИ, поддерживающего команды SOC с расстановкой приоритетов на основе рисков, эти команды теперь могут сосредоточиться на реальных угрозах среди шума. Кроме того, ИИ может помочь им ускорить расследование и реагирование — например, автоматически извлекать данные из разных систем для получения дополнительных доказательств, связанных с инцидентом, или обеспечивать автоматизированные рабочие процессы для ответных действий.
IBM привносит подобные возможности искусственного интеллекта в свою технологию обнаружения угроз и реагирования на них с помощью пакета QRadar. Фактор, меняющий правила игры, заключается в том, что эти ключевые возможности искусственного интеллекта теперь объединены единым аналитическим интерфейсом, охватывающим все основные технологии SOC, что упрощает их использование на протяжении всего жизненного цикла мероприятия. Кроме того, эти возможности ИИ были усовершенствованы до такой степени, что им можно доверять, и они действуют автоматически с скоординированными ответами без вмешательства человека. Например, группа IBM Managed Security Services использовала эти возможности искусственного интеллекта для автоматического закрытия 70 процентов предупреждений в течение первого года использования и ускорила сроки управления угрозами более чем на 50 процентов.
Сочетание искусственного интеллекта и автоматизации дает ощутимые преимущества в скорости и эффективности, в которых отчаянно нуждаются современные SOC. После многих лет тестирования и по мере развития инновации в области искусственного интеллекта могут оптимизировать использование времени защитниками за счет точных и ускоренных действий. Чем больше ИИ будет использоваться в сфере безопасности, тем быстрее он повысит способность групп безопасности работать, а отрасль кибербезопасности станет устойчивой и готовой адаптироваться к любым изменениям в будущем.