Ядерную войну могут начать системы искусственного интеллекта (ИИ), которые участвуют в принятии решения о нанесении удара. Об этом со ссылкой на экс-заместителя министра обороны США Роберта Уорка пишет издание Breaking Defense.
По словам Уорка, в некоторых ситуациях искусственный интеллект может расценить неопасные факторы как угрозу. Это "тревожная перспектива", отметил эксперт.
Бывший сотрудник Минобороны США привёл в пример российскую систему "Периметр". Она может принять землетрясение за ядерные взрывы и отдать команду на запуск межконтинентальных баллистических ракет, считает Уорк.
Кроме того, искусственный интеллект в военной сфере может привести к серьёзным последствиям и без непосредственного участия в управлении атомным оружием. Так, например, угроза таится в использовании ИИ для обработки разведданных и в системах раннего предупреждения.
"Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар", — сказал Уорк (цитата по "РИА Новости").
Применение искусственного интеллекта должно быть ограничено, а в сфере ядерного вооружения — запрещено, резюмировал Уорк. В противном случае это может привести к "катастрофическому сценарию".