机器人学三定律
阿西莫夫的《我,机器人》,在1950年末由格诺姆出版社出版。虽说这本书是“旧稿子”,但是这些短篇是在十年间零零散散发表的,这次集中出版,使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,而《引言》的小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位。
阿西莫夫的《我,机器人》,在一九五〇年末由格诺姆出版社出版。虽说这本书是“旧稿子”,但是这些短篇是在十年间零零散散发表的,这次集中出版,使读者第一次领略阿西莫夫机器人科幻小说的魅力。阿西莫夫为这本书新写了《引言》,而《引言》的小标题就是《机器人学的三大法则》,把“机器人学三大法则”放在了最突出、最醒目的地位。
而三大法则之间的互相约束,为后世的创作有一定的指导意义。
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
“机器人三定律”在他于1942年发表的作品Runaround(《转圈圈》,《我,机械人》中的一个短篇)中第一次明确提出,并且成为他的很多小说,包含基地系列小说中机器人的行为准则和故事发展的线索。机器人被设计为遵守这些准则,违反准则会导致机器人受到不可恢复的心理损坏。但是在某些场合,这样的损坏是不可避免的。在两个人互相造成伤害时,机器人不能任人受到伤害而无所作为,但是这会造成对另一个人的伤害,在一些小说中这造成了机器人的自毁。
他在小说中提出了三定律的很多变体。这些对机器人行为准则的修改成为他的很多故事的主线。在Little Lost Robot(《消失无踪》,《我,机械人》中的一个短篇)中为了避免机器人无谓地阻止人类进行低危险性工作,第一定律中的后半部分被去掉了,但是也产生了一些其他的问题。在Robot Dreams(《机械人之梦》,同名小说中的一个短篇)中,一个机器人做了个关于取消第一定律和第二定律的梦,导致了他的毁灭。在机器人与帝国中,一些机器人的系统中“人类的定义”被修改(说话没有该星球的口音就不是人类),而攻击人类。在科幻电影Bicentennial Man(《双百人》,原为短篇小说,后改编为中篇小说《正子人》)中,一个机器人为了成为人,将自己的机械部分逐步替换成组织,并且在最后用自己的贡献和牺牲换来了人类的认同和保护机器人的法律的产生。
三定律在科幻小说中大放光彩,在一些其他作者的科幻小说中的机器人也遵守这三条定律。同时,三定律也具有一定的现实意义,在三定律基础上建立新兴学科“机械伦理学”旨在研究人类和机械之间的关系。虽然截至2006年,三定律在现实机器人工业中没有应用,但很多人工智能和机器人领域的技术专家也认同这个准则,随着技术的发展,三定律可能成为未来机器人的安全准则。
从1941年的短篇科幻小说《推理》开始,阿西莫夫就在“三大法则”的框架下创作了一系列短篇机器人科幻小说。他熟练运用“三大法则”,在机器人有可能违背法则的前提下逐渐展开故事。这些短篇故事极具逻辑性,情节紧凑,扣人心弦,后来大都被收录在《我,机器人》(1950)和《其他机器人》(1964)这两本科幻小说集中。在尝试了一系列短篇小说之后,阿西莫夫又创作了机器人长篇科幻小说,分别是《钢窟》(又译《钢穴》)(1953)和《裸日》(1957),内容都涉及人类侦探与机器人侦探联手破案的传奇故事,被誉为科幻与推理相结合的典范。
有了“三大法则”,阿西莫夫笔下的机器人就不再是“欺师灭祖”、“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。不过高度智能化的机器人还是会产生各种心理问题,需要人类协助解决,这正是机器人故事的基础。阿西莫夫所向往的,是人类为代表的“碳文明”与机器人为代表的“硅文明”的共存共生。在阿西莫夫的另一篇优秀作品《二百岁人》(1976)中,他的这一思想表露得淋漓尽致。
随着《我,机器人》产生广泛的影响,阿西莫夫的“机器人学三大法则”也引起广泛的注意,以至今日不少论著在论及“机器人学三大法则”时,总是写道:“一九五○年阿西莫夫在《我,机器人》一书中首次提出‘机器人学三大法则’。”实际上,阿西莫夫著名的“机器人学三大法则”,酝酿于一九四○年末,部分发表于一九四一年五月,完整提出于一九四一年十月。
《我,机器人》收入九个短篇机器人科幻小说。这些小说,彼此关联,是用三个人物贯穿。这三个人物是机器人工程师唐纳文、鲍威尔和机器人心理学家苏珊·卡尔文。故事常常是在一位名叫劳伦斯·罗伯逊的人于一九八二年创立的“美国机器人与机械人公司”这样的背景下展开。正是因为有共同的人物贯穿,使《我,机器人》中的九个短篇不是各自独立、互不相干,而是成为系列小说。
在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三大法则”时,世界上还没有机器人,当然也没有机器人学和机器人公司。一九五九年,美国英格伯格和德沃尔制造出世界上第一台工业机器人,宣告机器人从科学幻想变为现实。随着机器人技术的不断进步,随着机器人的用途日益广泛,阿西莫夫的“机器人学三大法则”越来越显示智者的光辉,以至有人称之为“机器人学的金科玉律”。

后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
在《机器人与帝国》中,“机器人系列”前三部的主人公伊利亚·贝莱在临终前对机器人R·丹尼尔说道:“个别人的死亡是无所谓的。一个人生路,留下的工作后人会继承。从这个意义上来说,他没有死。只要人类存在一天,人类的事业就不会结束。每一个人的工作,结合成人类整体的一部分,因此,就成了整体的一部分。整体存在,他的那一部分也就存在。全人类的生命——过去的、现代的和将来的——汇成了永不停息的生命的长河,并将变得越来越壮丽。一个人的生命,只是这生命长河中的一滴水。”丹尼尔就是据此将第一定律扩展为第零定律。
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。 “第零定律”的重要性在于地位凌驾其它三大定律,如若有个机器人为保护人类整体(维护第零定律),必须杀害一个人或一群人(抵触第一定律),机器人的正子程式为了人类整体着想就会同意谋杀罪行。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”

阿西莫夫之后,人们不断提出对机器人三原则的补充、修正。
保加利亚科幻作家Lyuben Dilov1974年在小说《 Icarus's Way》中提出第四原则:
第四原则:机器人在任何情况下都必须确认自己是机器人。
1989年美国科幻作家Harry Harrison在《Foundation's Friends》中又提出另一个第四原则:
第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。
保加利亚科幻作家Nikola Kesarovski在《The Fifth Law of Robotics》(1983年)中又提出一个与Lyuben Dilov第四原则看似相似实则不同的第五原则:
第五原则:机器人必须知道自己是机器人。
这些补充的确有其发生的理由,但普遍存在的一个问题是补充本身的必要性和必然性。要知道,阿西莫夫三原则指出了机器人学的三个基本规范(或者“规律”),更具体的规范必须建立在这些基本规范的基础之上。怎样划分一个规范是具体规范还是基本规范?如果是基本规范,又怎样确定它在基本规范体系中的位置(为什么它是“第四”原则,而另一个又是“第五”原则?)?客观地说,前述几个“第四”、“第五“原则的内容并不能使自己成为第四原则、第五原则,既看不出它们何以成为原则,也看不出何以如此排序。这些原则的提出,多半是适应小说情节的需要,在小说中固然言之成理,但却不必过份拘泥。很显然,这几个补充原则的出发点是小说情节的需要,并不是机器人三原则本身的内容。而从三原则的内容出发对三原则加以补充、修改,这样的工作人们已经做过,并产生过很多严肃的讨论文章。这里只举罗杰·克拉克为例,他构思的机器人原则是:
元原则:机器人不得实施行为,除非该行为符合机器人原则。
第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。
第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。
第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。
机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。
第三原则:如不与高阶原则抵触,机器人必须先保护上级机器人,再保护自己之存在。
第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。
繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。
繁殖原则编辑
罗杰·克拉克把最后一个原则命名为“繁殖原则”,而没有称为“第五原则”,是有道理的;仅就其内容看,的确很难确定这一个原则到底应该放到什么位置上。他把机器人按履行内置职能放在执行人类命令之后,认为服从人类命令优先于执行本职工作,总体上也无问题。但把机器人保护自身存在置于执行本职工作之前,颇有值得商榷之处。此外,这些原则除调整人与机器人的关系之外,还涉及机器人之间的部分关系,这是超出原有原则范围的内容。