智能化最难的不是技术,而是它!

   2016-09-30 北京时间让佚名8430
核心提示:  供给侧改革大潮流下,各领域的企业都在为自己的产品戴上了智能化的高帽子,小到扫地机器人,大到无人驾驶汽车。智能化也带动
   供给侧改革大潮流下,各领域的企业都在为自己的产品戴上了智能化的高帽子,小到扫地机器人,大到无人驾驶汽车。智能化也带动着制造业、医疗产业、信息技术产业等实现转型升级。但在产品智能化过程中,有一个避不开的难题——伦理设计。技术难题总有攻克的一天,但伦理难题,一直以来似乎也没有很好的解决办法。

 

  相信看过《终结者》的观众都对影片中拥有自我意识的机器人印象非常深刻。本是在服务人类的初衷下产生的机器人在拥有独立意识后,纷纷反水,对人类发起了大肆进攻。

 

  除了《终结者》系列,《黑客帝国》等影片也在讲述着类似的故事,反映着一个共同的心理——人们在享受着智能化带来的便利时,也怀揣着隐忧。

 

  近日,英国标准协会发布了全球首个关于机器人伦理设计的规范指南。其中对机器人的欺诈问题、成瘾现象、伤害行为等作出规范。人们在尝试将机器人,甚至可以说所有的智能化产品纳入人类社会的道德系统中去。

 

  毋庸置疑,这有相当大的难度。但智能化的伦理设计的最大难关还不是人们愿不愿意按照规定设计,而是不知道怎么设计。

 


 

  灵活性的质疑:电脑能替代人脑吗?

 

  在大部分的科幻电影中,智能化设备的终极目标是完全的电脑代替人脑。而设备实现智能化操作是通过预先设定程序实现的。为了不与社会伦理相违背,企业在生产时如何进行功能预置成为难题。

 

  以无人驾驶车辆为例。即使无人驾驶车辆的初衷是解放人的大脑,同时减少交通事故,但并不意味着它一定没有风险。那么紧急避险设置如何进行?

 

  网上有人提出这样的问题:如果在行驶过程中,前方出现一个物体,不影响行驶的情况下要不要停?逢物不停,或许下一秒会突然有个孩子窜出来捡东西;逢物必停,则严重影响用户的驾驶体验。

 

  还有这样的疑惑:当前方行驶着一辆摩托车和一辆轿车,此时车刹车系统失灵,不可避免地会撞上一辆车,那车辆在智能化预置时怎样操作?

 

  虽说人脑在处理时也不一定能规避这些问题,但企业在进行智能化产品的量产时,如果不考虑好的话必然会招致社会舆论的压力和道德的拷问,埋藏祸端,限制企业发展。如何才能将风险和伤害降到最低,如何更顺应人们的心理需求,是企业进行智能化产品伦理设计的基础。

 

  法律层面的质疑:有些甚至连合法身份都没有

 

  法律在这一领域的态度大多是迟缓而谨慎的。在某些智能化产品推广过程中,就连获得合法身份都是企业需要突破的难关。

 

  这种滞后也是可以理解的。平衡车、无人机……智能化产品的风靡就好比双刃剑。近几年,无人机以“空中交警”的身份在交通执法中出现的频率越来越高。但除了利好的一面,无人机还面临着坠落伤人、偷窥隐私等质疑。无人机的安全性从生产到监管,还没有达到百无一漏的地步。

 

  而且,机器人的深度学习远超过我们的预计。国外研究发现,当机器人执行特定任务时,并不是完全按照事先编写好的程式,而是采用不同的方式来实现指令,逐渐形成策略。也就是说,在“后智能化时代”,机器人掌握一定的学习能力不是痴人说梦。事实上,如今机器人的某些深度学习能力已进入成熟阶段,例如图像识别、语音识别等。

 

  据了解,国内有家公司在制造机器人时,刻意地限制了其自我学习能力,还限制了影像资料的保存时间,就是为了避免泄露用户的隐私信息。

 

  那么当机器人有违法行为时,谁来埋单?所有者、生产厂商还是机器人?按照英国标准协会机器人的伦理设计规范来说,需要负责的是人而非机器人。但是,有时这种责任是难以界定的。卫报之前报道过一件事,用户给机器人一些钱用于购物,但最终机器人买到了护照、兴奋剂、可偷拍的棒球帽等违法物品。责任在谁,很难明确区分。

 

  智能化产品的伦理设计,还有很长的路要走。

 
举报收藏 0打赏 0评论 0
点击排行