Эксперт сравнил кибератаки с использованием искусственного интеллекта с атомным оружием
В будущем технологии искусственного интеллекта (ИИ) и
нейросети будут активно использоваться для проведения хакерских атак,
считает главный технический директор группы QIWI Кирилл Ермаков. Такие
нападения станут настолько же опасными, как и ядерное оружие, заявил
корреспонденту Федерального агентства новостей эксперт в области
информационной безопасности Александр Власов.
В последнее время
крупные компании, банки и промышленные предприятия по всему миру
фиксируют увеличение интенсивности кибератак — примером может служить
запуск вирусов-шифровальщика WannaCry и ExPetr. Именно эти хакерские
программы показали серьезную уязвимость большинства систем безопасности.
Как следствие крупный бизнес все чаще задумывается о необходимости
совершенствования инфраструктуры противодействия кибернетическим
угрозам.
«С точки зрения трендов мы видим, к примеру, что
искусственный интеллект начал успешно применяться для систем защиты. Что
мы можем предсказать на будущее? Что скоро он начнет применяться для
систем атаки», — утверждает технический директор группы QIWI.
Он
отмечает, что при нынешнем уровне развития компьютерных технологий для
крупной компании с хорошим уровнем информационной защиты приемлемым
является одно нападение с серьезными экономическими потерями раз в три
года.
«Искусственный интеллект, а также основанные на
нейросетях технологии стремительно развиваются. С одной стороны, это
безусловное благо, потому что самообучающиеся сети и самообучающиеся
программы позволяют быстрее выполнять многие операции и создавать больше
удобств для пользователей. Но с другой стороны, тот же мирный атом,
дающий один из наиболее чистых источников энергии, может также
использоваться в военных целях — как оружие нападения и убийства. Так и
здесь: если технологиями нейросетей и ИИ начнут пользоваться
злоумышленники, то многие самообучающиеся вирусы или трояны будут
учиться обходить те заслоны, которое создают системы информационной
защиты. Последствия могут быть схожими с применением атомного оружия.
Начнется большая гонка между средствами защиты и средствами нападения», —
подтверждает Власов заявление Ермакова.
Кроме того, эксперт в
области информационной безопасности уверен, что кибератаки — это только
одна из малых составляющих систем, основанных на искусственном
интеллекте. Власов напоминает, что ИИ может быть использован в военных
целях.
«Многие вещи, которыми мы с удовольствием используем в
повседневной жизни, вроде мобильной связи, Интернета — были разработаны в
военных лабораториях. Никого не должно удивлять, что пионерами в
разработке подобных систем являются не гражданские, а военные
специалисты. Сейчас, когда нейросети и ИИ начинают получать
распространение — это всего лишь плоды рассекречивания и конверсии самых
передовых военных разработок десяти, а может быть даже и двадцатилетней
давности», — продолжает собеседник ФАН.
Тем не менее, вряд ли человечество допустит реализации одного из сценариев фантастических фильмов или романов.
«Не
стоит забывать, что отцами и матерями искусственного интеллекта
являются люди. И если разработчики обладают минимумом ответственности
перед собой, перед обществом и перед человечеством, они будут
закладывать в системы искусственного интеллекта некие ограничения,
которые не позволят ИИ выйти из-под контроля и поработить человечество. Я
надеюсь, что у разработчиков хватит ума и ответственности на то, чтобы
закладывать физические ограничения», — заключил эксперт.
В настоящее время вся кибернетическая безопасность
складывается из желания программистов зарабатывать деньги. Хорошие
специалисты, как и хорошее программное обеспечение стоят дорого.
«Не
стоит забывать, что внедрение усиленного контроля безопасности приводит
к понижению эффективности бизнеса. Поэтому инвестиции надо рассчитывать
очень и очень грамотно», — отметил в свою очередь Ермаков.
Напомним,
руководство российской социальной сеть «ВКонтакте» начало использовать
нейросети для определения содержимого картинок. На основе анализа
изображения «обученный» алгоритм присваивает картинкам специальный
рейтинг, позволяя бороться с так называемыми «группами смерти». Кроме
того, технология также позволяет бороться с детской порнографией и
педофилией.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.
» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам. Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+