每日哲学 #203|智能机器能对自己的行为负责吗?

这篇专栏是视频 AV57901711 的文字版。

大约在2010年前后,网络上流行一种聊天机器人。聊天机器人就是一种人工智能,你给它发一句话,它会自动回复你一句话,跟我年纪差不多大的观众朋友们应该还留有印象。我印象最深的,一个是小黄鸡,还有一个叫做白丝魔理沙。
聊天机器人都是会学习的,一开始它们说的话总是前言不搭后语,但随着跟它聊天的用户多起来,慢慢地它就能够说出看起来稍微合乎情理的话来了。当年白丝魔理沙还有一个很萌的脑容量的设定,大家跟她聊天,过一段时间她的脑容量就几毫克几毫克地往上涨。
不过,过了几天,大家发现,白丝魔理沙开始说脏话了——这个事情本身很好理解,就是因为有部分人用脏话去逗聊天机器人,或者在不经意间说了脏话,被白丝魔理沙学去了。后来,白丝魔理沙说脏话的趋势有点失控,作者为了维护她的形象,就暂时把她给关了。
大家都觉得,白丝魔理沙说脏话是不好的。但是,这个事情应该怪谁呢?如果我们说,白丝魔理沙这个人工智能是作者做的,所以她说脏话这个事情就应该让作者负责,那作者肯定觉得特别冤枉。作者制作白丝魔理沙时,肯定没有专门设计让她学说脏话的机制。作者甚至都不知道应该如何避免这种情况,如何制止她说脏话。说这是作者的责任,有点勉强。
既然如此,我们会想:那就应该是一部分用户的责任,他们说脏话教坏了白丝魔理沙,如果他们不说脏话,白丝魔理沙也就不会说脏话。可是,话说回来,谁说脏话不是别人教的呢?那些说脏话的用户,他们也并不是天生就会说脏话。如果他们需要为自己说脏话负责的话,那么似乎白丝魔理沙说脏话,也赖不到教她的人身上。
这就有点麻烦了,白丝魔理沙说脏话既不是作者的责任,也不是用户的责任——现在的局面促使我们考虑一种新的解决方案:有没有这样一种可能,白丝魔理沙应该为自己说脏话负道德责任呢?

智能机器是否对自己的行为背负道德责任——这是一个从本世纪初开始逐渐兴起的哲学话题,现在已经形成了一个专门的哲学领域,叫做机器伦理学。机器伦理学主要研究的是,智能机器能否对自己的行为负责,以及智能机器如何才能做出合乎道德的行动。当然,考虑到现实人工智能的发展水平,目前机器伦理学的主要价值,还是在于为我们思考人类道德提供一个新角度。
不过,很多人在初次听说机器伦理学的时候会不以为然,觉得:机器怎么会有道德呢?但是想想看,人不也是一台智能机器吗?人的身体和心智都像机器那样,遵循着若干规律在运动。当代认知心理学就是用理解计算机的方式理解人类心智的。
有的观众会提出说:人有意识,机器没有意识,所以人负道德责任,机器不负道德责任。但我们要问:人负道德责任是由于人有意识吗?我们看:比方说,我正准备还钱,结果旁边突然冲出来一个人拿枪指着我,不让我还钱,那我就没还钱——这时候,我不应该对没有按时还钱负道德责任,因为我是被迫的,尽管我完全清醒地意识到自己在干什么。又比方说,我因为沉迷电脑游戏而忘了还钱——像这样的无心之失在日常生活中非常常见。虽然我没有意识到自己做错了事情,但我还是应该为我的失误和疏忽负责。由此我们可以得到一个的推论:意识对于道德责任而言,既不是充分条件,也不是必要条件。
对哲学有一定了解的观众,或许会尝试把话题引向自由意志,说人的行动是自由的,所以人需要负道德责任;机器的行动不是自由的,所以机器不需要负责。的确,自由是道德责任的前提。但要注意的是,当我们说一个人的行动是自由的时候,我们说的是,这个人的行动是这个人自己决定的,而不是说这个人的行动是完全没有原因的、或者完全没有规律的。这是一个很常见的误解。就像哲学家艾耶尔说的,如果一个人的行动没有道理可讲、完全无法预测,那么我们不是说这个人自由了,而是说:他疯了。在这个意义上,只要人的行动是自由的,那么原则上一台自己给自己做决定的机器,它的行动也可以是自由的。

消解了人类和机器在道德主体性方面的差异之后,我们就可以仿照人类道德的情况,总结智能机器背负道德责任的若干条件了。
第一, 智能机器必须拥有一套内在机制来决定自己做或者不做一件事,并且它的决定是它实际上做出的相应行为的直接原因,也就是说,只要它决定了,它就能做到。如果一台智能机器像Alpha Go一样,做了决定之后还需要人来执行,那么它的行动还说不上是出于它自身的。
第二, 智能机器在做出决定并实施这个决定的过程中,没有受到其他人或机器的强迫。这一条可能显得有点多余,因为以我们现在的技术水平还不知道怎样能强迫一台机器。第二条和第一条可以合并为一条更普遍的原则,就是产生这个行为的信息加工过程的控制中心,是内在于这台智能机器的,也就是说,在根本上决定了这个行为发生的信息加工过程,是发生在机器内部的。
第三, 智能机器必须是某个道德共同体的成员,这个道德共同体对智能机器应该做什么、不应该做什么做了规范。比方说,假如某一类型的智能机器,被公众社会情绪接纳为道德共同体的一分子,那么我们就会预期这类型的智能机器遵守特定的道德规范,并背负相应的道德责任。
只有在满足这三个条件的情况下,我们才有可能合理地说,智能机器能够对自己的行为负道德责任。
上面这一段内容,是up主结合机器伦理学领域的一些观点,对这个问题发表的个人看法。由于机器伦理学领域还很新,圈子还很小,目前暂时还谈不上有什么普遍共识。如果大家对这个问题有什么见解,欢迎在评论区留言讨论。
哲学不提供知识,请各位观众不要把文章内容当作问题的答案,而应视为思考的起点。