ОКО ПЛАНЕТЫ > Новости политики > Прикажет нажать на "ядерную" кнопку: Экс-чиновник Пентагона предположил "кошмарный сценарий"

Прикажет нажать на "ядерную" кнопку: Экс-чиновник Пентагона предположил "кошмарный сценарий"


2-09-2019, 08:08. Разместил: Редакция ОКО ПЛАНЕТЫ

Прикажет нажать на "ядерную" кнопку: Экс-чиновник Пентагона предположил "кошмарный сценарий"

Фото: globallookpress.com

Бывший замминистра обороны США Роберт Уорк предположил, как пишет Breaking Defense "кошмарный сценарий" будущего при использовании систем искусственного интеллекта военными. И экс-чиновник Пентагона не исключил того, что использующий ИИ компьютер может просто приказать человеку нажать на "ядерную" кнопку.

"Забудьте о Терминаторе. Не беспокойтесь о танках-роботах или истребителях. Настоящая опасность искусственного интеллекта (ИИ), заключается не в оружии роботов", - предупреждает издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка.

Уточняется, что речь идет о компьютере, который использует ИИ для обработки разведывательных данных и не исключается того факта, что он может приказать человеку нажать кнопку "огонь" - особенно когда речь идет о ядерных ракетах.

Ворк называет это "смертоносные автономные системы оружия".

"Они определяют оружие, которое не контролируется или не зависит от человеческого направления, - поясняет Уорк, - не контролируется в ходе операций на поле боя и само-ориентируется".

При этом экс-чиновник Пентагона заявляет, что такого оружия не существует и предполагает, что оно "может быть даже технически не осуществимо".

Но в то же время Уорк все же предположил "кошмарный сценарий", как пишет издание. И речь идет именно об ИИ, который управляет нанесением ядерного удара.

"Представьте, что в ядерной системе командования и управления есть прогностическая система ИИ, которая запускается по определенным параметрам", - обратил внимание Уорк, отметив, что это - "гораздо более тревожная перспектива, чем все, что вы можете представить с точки зрения индивидуального оружия".

Бывший замминистра обороны США предупреждает, что опасно слепо доверять анализу интеллекта ИИ.


Вернуться назад