”Наступательный ИИ” позволит киберпреступникам направлять атаки на предприятия, ускользая от «радаров» обычных средств обнаружения, основанных на алгоритмах. Таковы данные нового опроса, опубликованного MIT Technology Review Insights и Darktrace, который показал: более половины бизнес-лидеров считают, что стратегии безопасности, основанные на человеческих реакциях, терпят неудачу.

В отчете MIT и Darktrace было опрошено более 300 руководителей высшего звена, директоров и менеджеров по всему миру, чтобы понять, как они воспринимают киберугрозы, с которыми сталкиваются. Высокий процент респондентов (55%) заявили, что традиционные решения безопасности не могут предвидеть новые атаки, управляемые ИИ, также 96% сообщили, что они используют “оборонительный ИИ”, чтобы исправить это. Здесь “защитный ИИ” относится к самообучающимся алгоритмам, которые понимают обычные паттерны пользователя, устройства и системы в организации и обнаруживают необычные действия, не полагаясь на исторические данные.

Шестьдесят восемь процентов опрошенных руководителей выразили озабоченность по поводу нападений с использованием ИИ для подделки личных данных и фишинга, в то время как большинство сказали, что они обеспокоены вымогательством (57%), дезинформацией и утечкой данных (56%), а также сбоями домашних сетей удаленных сотрудников (53%). Из опрошенных 43% подчеркнули разрушительный потенциал дипфейков, или медиа, которые стирают лицо человека в существующем изображении, аудиозаписи или видео и заменяют чьим-то подобием с помощью искусственного интеллекта.

Как пишут соавторы доклада, когда в дело вступает агрессивный искусственный интеллект, “поддельная электронная почта” может стать почти неотличимой от сообщений доверенных контактов. А поскольку во время пандемии сотрудники работали удаленно — без ведомственных протоколов безопасности, — число успешных попыток фишинга стремительно росло. С начала 2020 года, когда началась пандемия, Google зарегистрировал более 2 миллионов фишинговых сайтов — на 19,91% больше, чем в 2019 году.

Компании все больше полагаются на защитный искусственный интеллект для борьбы с растущими киберугрозами. Известный как «автономный ответ», защитный ИИ может прерывать текущие атаки, не влияя на повседневную работу. Например, учитывая тип программ-вымогателей, с которыми предприятие не сталкивалось в прошлом, защитный ИИ может идентифицировать новые и ненормальные модели поведения и остановить программу-вымогателя, даже если она не связана с общеизвестными индикаторами компрометации (например, занесенными в черный список доменами командования и управления или хэшами вредоносных файлов).

Согласно опросу, 44% руководителей высоко оценивают системы безопасности с поддержкой искусственного интеллекта, а 38% внедряют технологию автономного реагирования. Это согласуется с выводами статистики. В анализе 2019 года стало известно, что около 80% руководителей телекоммуникационной отрасли считают: их организация не сможет реагировать на кибератаки без искусственного интеллекта.

Если темпы внедрения ИИ на рынке кибербезопасности сохранятся, к 2026 году его стоимость достигнет 38,2 миллиарда долларов. От 8,8 миллиарда долларов в 2019 году это совокупный годовой темп роста примерно на 23,3%.

“С началом атак с использованием искусственного интеллекта организациям необходимо быстро реформировать свои стратегии, быть готовыми защищать свои цифровые активы с помощью искусственного интеллекта и вернуть себе преимущество перед этой новой волной сложных атак, -пишут соавторы доклада. — Автоматизируя процесс обнаружения, расследования и реагирования на угрозы, ИИ усиливает человеческие команды ИТ-безопасности, устраняя угрозы, как только они появляются, чтобы у людей было время сосредоточиться на более стратегических задачах”.

Источник: https://venturebeat.com/2021/04/08/survey-finds-96-of-execs-are-adopting-offensive-ai-against-cyberattacks/

от AI_NEWS

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *