下面我们共同来看几个例子:
1. 如果家中有台智能辅助机器人专门负责照顾老年人生活,那么患了健忘症的老人可能会让机器人做许多重复的无用功,比如一件衣服一天洗个七八次;
2. 家中熊孩子可能会把日托机器人当玩具,命令它往窗外扔东西;
3. 学生可能会把作业甩给机器人完成;
4. 家政机器人在做菜时可能会被主人叫去倒垃圾。
这样的例子数不胜数,稍不小心,可能就会把自己也搞得手忙脚乱。当然,以上这些最多让你吃到暗黑料理,但如果有坏人教唆机器人犯罪,恐怕后果就严重了。
那么人类该如何避免因机器人服从命令而带来的麻烦呢?如果别有用心的人让机器人拿起刀向前走,而它前方站着一个人怎么办?恐怕最好的方法要么是机器人停下不动,要么就是机器人拒绝拿刀。
不过,无论是哪种办法,机器人都需要事先探知自己后续行为会造成的后果并主动做出是否遵守命令的选择。那么我们怎么教机器人说“不”呢?
机器人怎么知道下一步会发生什么?
在实验室中,我们已经开始开发基于人类命令的机器人控制系统,通过该系统,机器人就能决定是否执行人类命令(违反道德原则可以拒绝)。
不过,要想教会机器人不服从可不是个容易事,毕竟有些事的后果并非肉眼能看到的。将球扔出窗户,可能会安全落在院子里,也有可能落在人潮不息的大街上,它会砸住人还是砸到车(引发一系列连锁反应)谁也说不清。
以现在的技术条件,机器人很难确定到底什么时候能扔球(玩接球游戏可以扔,扔出窗外不可以)。此外,如果熊孩子故意欺骗机器人,假装自己要玩接球游戏却故意躲开,事情就有可能沿相反的轨道发展。
教授机器人道德和法律
要想让机器人理解自己行为可能造成的危险后果,就需要让它掌握大量的背景知识(如在窗前扔球可能会造成皮球飞出窗外)。机器人不但要衡量自己行为造成的结果,还要考虑人类发出某项指令的意图。
而要想让机器人明确领会人类复杂指令(善意与否)的意思,它们就要了解这些指令可能会造成的后果并与现有的社会道德和法律进行比对。
眼下,在管理机器人上我们有通用法则:“如果你被要求完成的任务可能会造成伤害,就可以决绝执行。”但如此简单的描述根本不够,为机器人制定详细的责任和权限势在必行。
总的来说,不做违法之事是机器人的基本原则,但如果人类的指令有问题,机器人也应该有说“不”的权利。因此,机器人“大脑”中必须装有法律、道德甚至人类礼仪,这样才能聪明的拒绝一些错误指令。
虽说现有的技术下机器人还很难获得上述能力,但我们从现在就应该定下一个基调,那就是机器人有权说“不”。