相信看过《终结者》的观众都对影片中拥有自我意识的机器人印象非常深刻。本是在服务人类的初衷下产生的机器人在拥有独立意识后,纷纷反水,对人类发起了大肆进攻。
除了《终结者》系列,《黑客帝国》等影片也在讲述着类似的故事,反映着一个共同的心理——人们在享受着智能化带来的便利时,也怀揣着隐忧。
近日,英国标准协会发布了全球首个关于机器人伦理设计的规范指南。其中对机器人的欺诈问题、成瘾现象、伤害行为等作出规范。人们在尝试将机器人,甚至可以说所有的智能化产品纳入人类社会的道德系统中去。
毋庸置疑,这有相当大的难度。但智能化的伦理设计的最大难关还不是人们愿不愿意按照规定设计,而是不知道怎么设计。
灵活性的质疑:电脑能替代人脑吗?
在大部分的科幻电影中,智能化设备的终极目标是完全的电脑代替人脑。而设备实现智能化操作是通过预先设定程序实现的。为了不与社会伦理相违背,企业在生产时如何进行功能预置成为难题。
以无人驾驶车辆为例。即使无人驾驶车辆的初衷是解放人的大脑,同时减少交通事故,但并不意味着它一定没有风险。那么紧急避险设置如何进行?
网上有人提出这样的问题:如果在行驶过程中,前方出现一个物体,不影响行驶的情况下要不要停?逢物不停,或许下一秒会突然有个孩子窜出来捡东西;逢物必停,则严重影响用户的驾驶体验。
还有这样的疑惑:当前方行驶着一辆摩托车和一辆轿车,此时车刹车系统失灵,不可避免地会撞上一辆车,那车辆在智能化预置时怎样操作?
虽说人脑在处理时也不一定能规避这些问题,但企业在进行智能化产品的量产时,如果不考虑好的话必然会招致社会舆论的压力和道德的拷问,埋藏祸端,限制企业发展。如何才能将风险和伤害降到最低,如何更顺应人们的心理需求,是企业进行智能化产品伦理设计的基础。
法律层面的质疑:有些甚至连合法身份都没有
法律在这一领域的态度大多是迟缓而谨慎的。在某些智能化产品推广过程中,就连获得合法身份都是企业需要突破的难关。
这种滞后也是可以理解的。平衡车、无人机……智能化产品的风靡就好比双刃剑。近几年,无人机以“空中交警”的身份在交通执法中出现的频率越来越高。但除了利好的一面,无人机还面临着坠落伤人、偷窥隐私等质疑。无人机的安全性从生产到监管,还没有达到百无一漏的地步。
而且,机器人的深度学习远超过我们的预计。国外研究发现,当机器人执行特定任务时,并不是完全按照事先编写好的程式,而是采用不同的方式来实现指令,逐渐形成策略。也就是说,在“后智能化时代”,机器人掌握一定的学习能力不是痴人说梦。事实上,如今机器人的某些深度学习能力已进入成熟阶段,例如图像识别、语音识别等。
据了解,国内有家公司在制造机器人时,刻意地限制了其自我学习能力,还限制了影像资料的保存时间,就是为了避免泄露用户的隐私信息。
那么当机器人有违法行为时,谁来埋单?所有者、生产厂商还是机器人?按照英国标准协会机器人的伦理设计规范来说,需要负责的是人而非机器人。但是,有时这种责任是难以界定的。卫报之前报道过一件事,用户给机器人一些钱用于购物,但最终机器人买到了护照、兴奋剂、可偷拍的棒球帽等违法物品。责任在谁,很难明确区分。
智能化产品的伦理设计,还有很长的路要走。