当年,阿西莫夫在他的小说《我,机器人》系列中提出了著名的“机器人三定律”:
第一定律―――机器人不得伤害人,也不得见人受到伤害而袖手旁观。
第二定律―――机器人应服从人的一切命令,但不得违反第一定律。
第三定律―――机器人应保护自身的安全,但不得违反第一、第二定律。
这三条定律,后来成为机器人学中的科学定律。以前我在文章中说过这样的话:科幻作家们“那些天马行空的艺术想像力,正在对公众发生着重大影响,因而也就很有可能对科学发生影响―――也许在未来的某一天,也许现在已经发生了”,如果我们要找一个“现在已经发生了”的例证,那么阿西莫夫的机器人三定律就是极好的一个。
将阿西莫夫的机器人三定律仔细推敲一番,可以看出是经过了深思熟虑的。第一、第二定律保证了机器人在服从人类命令的同时,不能被用作伤害人类的武器,也就是说,机器人只能被用于和平用途(因此在战争中使用机器人应该是不被允许的);第三定律则进一步保证了这一点―――如果在违背前两定律的情况下,机器人将不得不听任自己被毁灭。
1968年库布里克导演的著名影片《2001太空奥德赛》(2001 ASpaceOdyssey,1968)中,有一个重要的角色是一台名为“HAL 9000”的电脑。这台电脑操控着“发现号”宇宙飞船的航行及内部运作。从这个意义上说,这台电脑也就是一个机器人(尽管它没有类似人的形状)。在将近40年前的作品中,关于这个角色的想像显得如此超前―――事实上,就是在今天看来,它也不算过时。
但是,由于《2001太空奥德赛》有着多重主题,诸如人类文明的过去未来、外星智慧、时空转换、生死的意义等等,结局又是开放式的扑朔迷离,评论者通常都把注意力集中在上述这些宏大、开放的主题上,进行联想型、发散型的文学评论,很少有人从阿西莫夫“机器人三定律”出发来讨论影片中电脑HAL 9000的行为。
在影片《2001太空奥德赛》中,电脑HAL 9000逐渐不再忠心耿耿地为人类服务了。最后它竟发展到关闭了三位休眠宇航员的生命支持系统―――等于是谋杀了他们,并且将另两位宇航员骗出飞船,杀害了其中的一位。当脱险归来的宇航员戴夫决心关闭HAL 9000的电源时,它又软硬兼施,企图避免被关闭的结局。
如果套用阿西莫夫“机器人三定律”,则HAL 9000的上述行为已经明显违背了第一、第二定律。这一点成为影片《2001太空奥德赛》的续集《2010接触之年》(2010 theYearWeMakeContact,1984)中的重点。《2010接触之年》虽然远没有《2001太空奥德赛》那么成功和有名,有人甚至认为它只是狗尾续貂之作。但它接着后者的开放式结尾往下讲故事,其中关于HAL 9000的部分倒是有些意思的。
却说公元2001年(地球上的年份),宇航员戴夫在“发现号”宇宙飞船上强行关闭了电脑HAL 9000之后,意外进入了错乱的时空,不知何为过去未来,也不知自己是生是死,而“发现号”实际上已被遗弃在木星附近。9年之后,一艘苏联(注意这是1984年的影片,那时苏联还“健在”)宇宙飞船被派往木星,目的是寻找当年“发现号”上保存的神秘信息。从理论上说,“发现号”是美国领土,所以苏联的飞船上还有三位美国宇航员,其中包括当年HAL 9000的设计者钱德拉博士。
在找到仍在轨道上运行“发现号”并成功实施对接之后,钱德拉博士登上了“发现号”,并重新启动了HAL 9000。HAL 9000表现十分温顺,对一切指令都乖乖执行。顺便插一句,HAL 9000用男声说话,这当然意味着它被想像为一个雄性物体。但影片中它说话的声音也极为温顺―――甚至有点娘娘腔了。
钱德拉博士对它很有信心,甚至为它9年前的罪行辩护,说那是因为它接到了矛盾的指令之故。但这种辩护显然是站不住脚的,因为按照机器人第一、第二定律,根本不可能有指令上的矛盾―――任何杀害宇航员的指令都应视为“乱命”,根本不应该考虑执行。换句话说,即使“发现号”上有反叛或邪恶的宇航员需要被处死,那也只能由别的宇航员“人工”执行,不能让HAL 9000去执行。
但是,随着故事情节的发展,考验HAL 9000忠诚的时刻到了。美、苏两国的宇航员们决定,用尽“发现号”上的燃料帮助苏联的宇宙飞船逃生,“发现号”则将被遗弃而在一场爆炸中毁灭。现在的问题是,对于这样的指令,HAL 9000会不会执行呢?大部分人感到没有把握,因为HAL 9000执行这样的指令就意味着它自身的毁灭。
影片在这里用了浓墨重彩。指令是钱德拉博士向HAL 9000发出的。HAL 9000很不理解,它一再告诫钱德拉博士,这样的话“我们的”飞船就会毁灭。在它不得不执行指令,进入倒计时之后,它还一次次告诉钱德拉博士,“现在停止还来得及”。最后钱德拉博士向它说出了真实意图,HAL 9000终于明白它将要毁灭自己来帮助宇航员们。它平静地接受了这一残酷的现实,执行了指令。最终美、苏两国的宇航员们得以返回地球,而HAL 9000连同“发现号”一起化为灰烬。
这里我们看到了对机器人第三定律的完美体现:当人类的生命受到威胁时,为了挽救人类,机器人就不应该再“保护自身的安全”了,因为此时它再试图保护自己,就会违背第一定律和第二定律。
在以机器人为主题的科幻影片中,阿西莫夫的机器人三定律通常会得到特殊的强调。比如,在影片《机械公敌》(I,Robert,2004)中,一上来就在浩瀚的星空背景上出现机器人三定律的文本,似乎象征着该三定律之“放之四海而皆准”;而在影片《变人》(BicentennialMan,1999)中,机器人安德鲁一到主人家就用夸张的方式向主人陈述了机器人三定律。但是,机器人三定律虽然思虑周详,真的要执行起来,还是很困难的。比如将机器人用于战争,就是许多科学家现今努力的方向。即使在不否定机器人三定律前提下,也可以为这种努力辩护。因为“机器人”、“电脑”、“自动机械”之间的界限是很难清楚划定的,使用自动武器、智能武器,并不等于使用机器人啊。
再进一步想,在今天我们能够想像的条件下,机器人的行事原则,只能是人类事先为它规定的,只要不那么“迂腐”,完全可以让机器人执行它主人的任何指令,包括大规模屠杀人类的指令。机器人三定律只能是善良人类的道德自律,根本不可能对科学狂人或邪恶之徒(这两类人都是科幻影片中经常出现的)有任何约束力。
在小说《基地前传・基地前奏》中,阿西莫夫又提到,应该有一个关于机器人的“第○定律”,表述为:“机器人不得伤害人类整体,也不得见人类整体受到伤害而袖手旁观。”这样,原先的三定律就要作相应的修正,比如第一定律改为:“机器人不得伤害人,也不得见人受到伤害而袖手旁观,但不得违反第○定律。”第二、第三定律依此类推。然而,加了这个“第○定律”情形只会变坏―――“第○定律”非但对于狂人和恶人同样没有任何约束力,反而让他们有机会以“人类整体”利益的名义,来利用机器人伤害人类个体了。