Злоумышленники все более тонко и изощренно используют новейшие достижения в области компьютерных технологий. Специалистам по кибербезопасности больших трудов стоит гоняться за ними. А ведь задача состоит в том, чтобы предотвратить компьютерные преступления, а для этого надо быть на шаг впереди мошенников.
И в этом им на помощь приходит искусственный интеллект, который может помочь автоматизировать многочисленные задачи, помогая недоукомплектованным отделам безопасности ликвидировать разрыв в профессиональных навыках специалистов и повысить эффективность работы специалистов-практиков, защититься от любых существующих угроз. Считается, что только ИИ может поставить защитников на шаг впереди.
Однако искусственный интеллект не является панацеей от всех болезней. Как и люди, системы искусственного интеллекта допускают ошибки, и ими можно сознательно манипулировать. Они часто требуют времени для достижения хорошего уровня зрелости принятия решений. Возможно, важность ИИ в области безопасности преувеличена, поэтому организациям необходимо будет найти способ сбалансировать эффективность автоматизации с необходимостью осуществления человеческого надзора. Это позволит обеспечить балланс, чтобы такие системы принимали правильные решения и защищали информацию, а не подвергали ее дополнительному риску.
ИИ в обороне: обнаружение, предотвращение и реагирование
Современные системы искусственного интеллекта обладают “узким” интеллектом и, как правило, хорошо решают ограниченные задачи – те, которые могут быть решены, например, с помощью одного набора данных или типа входных данных. Ни одна отдельная система искусственного интеллекта не может ответить на все многочисленные вопросы и проблемы – такого "всеобъемлющего" ИИ еще не существует.
Вместо этого существует несколько узких, избранных способов, с помощью которых различные системы искусственного интеллекта могут улучшить киберзащиту:
· Для обнаружения кибератак ИИ может усилить защитные механизмы, такие как мониторинг и анализ сети, обнаружение/предотвращение вторжений, а также анализ поведения пользователей и организаций (UEBA).
· Для предотвращения кибератак ИИ может использоваться для тестирования уязвимостей при разработке программного обеспечения, улучшения платформ анализа угроз, а также для идентификации информационных активов и управления ими.
· Чтобы реагировать на кибератаки, инструменты искусственного интеллекта могут поддерживать платформы автоматизации управления безопасностью и реагирования (SOAR), передавая инструкции другим платформам безопасности или заставляя соединения падать при обнаружении вредоносной сетевой активности.
Как системы искусственного интеллекта делают ошибки.
Системы искусственного интеллекта подвержены ошибкам и неудачным решениям. Если вы следите за этой темой, то помните серию громких случаев - от сексистских предубеждений до использования в средствах вербовки и чатботов Twitter, которые, как оказалось. способны обучаться в том числе для поддержки расистских мероприятий.
Эти ошибки, как правило, являются случайными по своей природе, вызванными смещением в наборах данных, используемых для обучения системы, или путем моделирования решений либо слишком близко или слишком слабо относящиеся к имеющейся информации. Однако, возможны и злонамеренные действия, которые могут нацеливаться на информационные системы, “отравляя” их путем вставки неверных данных в обучающие наборы данных. Или, если они не имеют доступа к данным обучения, злоумышленники могут подделать входные данные, чтобы обмануть систему, вынудив к принятию неверных решений.
Успех возможен при сочетании человеческого и искусственного интеллекта
До тех пор, пока система ИИ не продемонстрирует зрелость и надежность, организации справедливо не желают предоставлять ей высокий уровень самостоятельности и способности реагировать – независимо от того, используется ли она для обеспечения информационной безопасности или любого другого типа в поддержке бизнес-функций. Риск того, что ИИ-системы будут принимать неверные решения, означает, что организации, скорее всего, всегда будут требовать присутствия человека, который может при необходимости вмешаться и взять все под контроль, а также нажать выключатель, когда это необходимо.
Тем не менее, желание держать людей в петле создает свои собственные проблемы. Внедрение слишком большого внимания за системами ИИ и необходимости осуществления человеческого надзора может снизить их эффективность, что приведет к потоку запросов, уведомлений и предупреждений, и не позволит ИИ принимать автоматически ответные меры по блокировке действий злоумышленников.
Специалистам по вопросам безопасности необходимо сбалансировать потребность в человеческом надзоре с уверенностью, позволяющей средствам контроля, использующих элементы ИИ, действовать автономно и эффективно. Для развития такой уверенности потребуется время, точно так же как практикующим специалистам потребуется время, чтобы узнать, как лучше всего работать с интеллектуальными системами. Учитывая время, необходимое для совместного развития и обучения, сочетание человеческого и искусственного интеллекта должно стать ценным компонентом киберзащиты любой организации.
@peshehod на данный момент времени ИИ сможет за доли секунды из 10000 вариантов выбрать наиболее оптимальный для решения конкретной задачи, но в отличие от человека ИИ не способен придумать 10001 вариант.
@blockchained Именно. И вторая "слабость" ИИ - неспособность чувствовать, что тобой манипулируют, зависимость от прописанных алгоритмов..