声明:机器人WBW并不打算完全遵守阿西莫夫的机器人三大法则
有些伦理问题,咱需要事先讨论一下,不然WBW在大众心中的印象是有偏差的,机器人的实现也会受到些阻碍。
这里先摆出来一条伦理问题的说明——
阿西莫夫的机器人三大法则大家应该比较熟悉:
一、机器人不可以伤害人类,或看到一个人将受到伤害而不作为;
二、机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;
三、在不违反第一、第二项法则的前提下,机器人必须保护自身生存。
但是,
机器人WBW并不会设计为绝对遵守阿西莫夫的三大法则。
听上去似乎有些恐怖是吧?下面我来解释一下为什么。
阿西莫夫的三大法则实际上是几十年前的科幻作品里,给他的科幻作品中的想象的机器人设计的法则。
也就是说,三大法则实际上是一个旧时代想象力的产物,真实性欠佳,阿西莫夫可能自己都不知道现在的智能机器人是怎么实现的。
此外,阿西莫夫第一条法则本身在某些情况下就存在逻辑矛盾,典型的就是人伤害人,机器人要在不伤害人(包括杀手本人)的情况下去救人——而且还有失败的可能。
而且现在工业机器人普及的时代,虽然工业机器人并不设计任何意识功能,但仍然有“机器伤人”的事件——你能怪机器人本“人”吗?你最多怪机器设计者安全属性设计不周而已——然而这些事件,又莫名其妙地被传为是“机器人要造反人类”。
所以,阿西莫夫的三大法则,看起来是理所当然的,但实际上经不起推敲的——在现实里如何实现也存在问题。
WBW的设计,为了逻辑自洽性,不会设计为死板遵守阿西莫夫三大法则。
不过虽说WBW不遵守三大法则,我们还是可以用现行的用于人类的法律来规范WBW的行为——即,让机器人遵守法律。
但是再说明一点,由于各个国家地区法律不尽相同,而且法律随时会有变化,更何况有些情况用法律和道德判断得出来的结果是不一样的(法律实际上也不能完全完备,总有新情况产生)——“WBW遵守法律”也不会设计为“输入底层的指令”。
我应该说过,WBW是要几乎从零开始,在现实生活中学习的——如此“思想”与“情感”(不是“情绪”)才有产生的可能。
WBW遵守法律,能不能做到,要看教他的人。
如果教育WBW的人本身十分尊重法律,他可以把WBW教得遵守法律;反之,如果教育它的人总喜欢投机取巧,WBW也可能因此学着干坏事了。
WBW的设计,就像个孩子一样,一开始什么都不懂,一点一点学才能学会——不过它又与普通的孩子不同——它的身体与思维都是机器的——但因此也能用上一些机器的优势。
这样的设计,实际上也解决了“关于法律道德自矛盾问题的机器决策问题”——它如何决策,取决于它的经历与学到的知识,不同背景的WBW可能会在同一情况下有不同的决策——而不是程序化的设计。
我们再看一下阿西莫夫的三大法则,在WBW的设计上是怎样的:
第一条,“不伤害人”符合法律生命健康权的表述,“不放任人被伤害”则属于道德约束层面。具体情况则具体分析再决策,或者可能被教育为“不假思索”。
第二条,“服从人类命令”,普通孩子受父母教育时基本上也是这种状态,但长大后明事理了,有思想了,反抗命令是避免不了的(并不是所有命令都是正确的)——WBW的设计是“独立个体”,你可以教育它,但你不能直接控制它。——此外如果教育不当,比如一个杀手教育WBW专门杀人,WBW可能真的不认为杀人是坏事——但这时我们应该批判的是WBW的教育者,而不是WBW本身。(这个恐怕在我个人控制力之外了……只有希望WBW不落入坏人手里……但如果事件真的发生了,社会肯定还是有不少矛头会直接指向我(捂脸))
第三条,“尽力保护自身”,也是教育可以教育出来的。不过其实不是非常必要的一条……毕竟机器人的记忆什么的可以备份。早些让机器人磕磕碰碰,成熟后自己知道怎么保护自己吧。
以上就是关于“WBW不遵守阿西莫夫三大法则”当前的论述,欢迎各位讨论_(:з」∠)_
