据英国媒体报道,伴随着人工智能的不断升级,智能武器系统将可以快速自动选择目标发射攻击。军事专家分析称:这种完全自动化的智能武器也被称为“杀手机器人”,它们很快从科幻故事情节过渡为现实,2017年将启动较大杀伤力的自动化武器系统。这意味着人们仅有一年的时间阻止“杀手机器人”。
目前,完全自动武器系统存在着道德、法律和责任危机,控制该危机的最佳方法是制定国际法约束这种武器。此前,在联合国会议上至少有20个国家表示,人类应当正视完全自动武器系统潜在的危险性,这种对人类的威胁将超过任何军事威胁,它们将做出超出人类控制之外的生死决定,比例失调的伤害危险或者错误地将平民作为攻击目标,都会使危险性日益增加。