官方机器人伦理准则解析:不要歧视,不做伤害人的事

   2016-09-21 36氪(北京)佚名10700
核心提示:  BSI 发布的这份文件叫作BS8611 机器人和机器人设备,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可

 

  BSI 发布的这份文件叫作“BS8611 机器人和机器人设备”,这是一份用干巴巴的语言编写的健康和安全手册,但里面所强调的不良场景可能直接取自科幻小说。机器人欺骗、过度依赖机器人和自主学习系统可能会超出他们的权限,这些都是制造商应该考虑到的危害。

 

  这份文件是在牛津 Social Robotics and AI 大会上提出的,是英格兰大学的机器人技术教授 Alan Winfield 指出,这些准则代表了将伦理价值嵌入机器人和人工智能的第一步。这是第一个公开发表的、针对机器人设计的伦理标准,比阿西莫夫的法则更为复杂,提出了如何对机器人的伦理风险进行评估。

 

  BSI 文件的内容一开始是一系列宽泛的伦理原则:设计机器人的目的不应该是为了杀死或伤害人类;负责任的主体应该是人,而不是机器人;要能够找出对机器人及其行为负责的主体。

 

  接下来的内容重点强调了一系列更具争议性的问题,比如同机器人建立感情纽带是否可取,尤其是设计的机器人是用来与儿童或老年人进行互动的。

 

  谢菲尔德大学机器人和人工智能名誉教授 Noel Sharkey 举了一个例子,说明机器人可以无意地欺骗我们。在一个幼儿园配备有小机器人,孩子们很喜欢它,认为机器人比他们的家庭宠物认知性更强,实际上就是和机器人建立了情感纽带。

 

  该准则表明设计者应该致力于透明化,但科学家们却说,在实际操作中这可能是非常困难的,因为目前 AI 系统的问题,特别是这些深度学习系统,是不可能知道为什么他们会做出这样或那样决定的。比方说,深度学习代理在完成某一项具体任务时,并不是按设定的方式;他们会尝试数百万次,来找到一个成功的策略,以此来执行任务——有时候这些策略是设计者都预想不到和无法理解的。

 

  该准则甚至暗示了可能会出现带有性别歧视或种族歧视的机器人,并警惕大家:这些机器人可能会缺乏对文化多样性和多元主义的尊重。这一现象已经出现在警察所使用的技术上,比方说机场应用该类技术识别出可疑的人,并将其进行拦截,这就是一种种族歧视的评判。

 

  并且,深度学习系统基本上使用互联网上的全部数据,但问题是,这些数据是带有倾向性的,就像这些系统倾向于支持中年白人男子。所有人类的偏见都有可能被纳入系统,这非常危险。

 

  未来的医学应用程序还存在一种风险,即在诊断女性或少数民族患者时,系统可能不太熟练。已经有这样的例子:语音识别软件在理解女性时表现较差;面部识别项目在识别黑人面孔时,不像识别白人那样简单。

 

  Sharkey 建议给机器人也安装一个黑匣子,可以打开和检查。如果一个机器人存在种族歧视,可以关掉它,并将它撤回。

 

  该文件也关注了更广泛的社会问题,如对机器人的过渡依赖,但没有就如何处理这些问题,给设计者一个明确的引导。

 

  36氪在这方面的还有如下几篇报道:

 

  机器人也懂品酒?一项新研究成果可让机器人学会如何分辨啤酒

 

  教机器人听懂口语,康奈尔大学正在尝试放弃指令字符开始教机器人理解通俗的语音指令

 

  从军用市场转战企业市场,机器人公司Clearpath Robotics获1120万美元融资

 

  从WRC2015世界机器人大会,一瞥花式机器人行业

 

  图灵学习:机器人“看一看”就能模仿人类的行为

 

  像搭积木一样组装机器人:Cellrobot通过球形模块化设计实现机器人的自由构型

 

  当您在一定时间内使用一个机器,它给你正确的答案,你就会信任它,,并且变得懒惰,但是之后它提供给你的东西可能会非常愚蠢,这也是过度依赖自动化的一种形式。

 

  也许着眼于更遥远的将来,BSI 文件也提醒我们警惕流氓机器的危险,这些机器可能开发或修订行动计划,可能带来无法预料的后果和潜在法律责任。

 

  BSI 制造业主管 Dan Palmer 表示,机器人和自动化技术的应用,能够使各种流程更有效率、更灵活,适应性更强,是制造业增长的重要支柱。但是,反人性或过分依赖机器人等伦理问题和危害是确实存在的,并亟待解决。这份关于如何处理各种机器人应用程序的准则,将帮助设计者和机器人用户以及自动化系统建立一个新的工作领域。

 
举报收藏 0打赏 0评论 0
点击排行