欢迎光临散文网 会员登陆 & 注册

强人工智能是否具有道德主体地位

2021-10-31 19:41 作者:無非是  | 我要投稿

强人工智能是否具有道德主体地位

 

一,引入和背景资料

    哈利是你最好的朋友,你们从小玩到大,你们上了同一所小学、同一所初中,你们一起吃饭、逃课,一起在操场上踢球,一起被老师罚站。对哈利来说,你是最不可或缺的朋友之一。对你来说也是如此,尽管他并不完美——他好吃懒做、不够机智。一起踢球时,他从来不是一个好的守门员或者前锋,他还很容易失落,觉得自己什么都做不好,总是需要的你安慰,但他也很体贴,每次都能记得送你生日礼物……直到有一天,哈利被割伤,你发现他流出的不是血而是机油,这时候你才知道哈利的秘密——他其实是一个机器人,他的皮肤是和人类极其相似的人造橡胶,当他开怀大笑时并没有空气流过气管,而是内置的播放器在播放录制好的笑声,当他吃饭的时候也没有食物被消化,他只是把那些食物简单地搅碎,然后通过管道“排泄”出去。他的核心是一个极其完善的人工智能电脑,他好像拥有人类的一切特质,例如情绪、个性,但快乐、痛苦,对于他来说,并不意味着大脑中的多巴胺或者其他的神经递质,而仅仅是一串串编码、电流,他的性格、能力,也并不是长期的生活经验对大脑影响的累积,而是某个内置于他核心的算法经过长期“学习”,自我改变后的结果。

    当你知道了哈利的秘密,你被气得暴跳如雷,你觉得被深深地欺骗了,但是随着你逐渐冷静下来,你又不得不思考——是谁在“欺骗”你?是哈利吗,还是制造哈利的那些人呢?哈利是一个人工智能,这意味着什么?这意味着,你和哈利的友情、你们一起相处的那些愉快时光都是虚假的吗?就算你现在就背叛他、欺骗他、虐待他甚至谋杀他,也不必心存愧疚吗?就算哈利现在就背叛你、谋杀你,你也无法责怪它——就因为它仅仅是一个工具,真正背叛你、谋杀你的另有其人?如果你认为哈利不是一个真正的“朋友”,那么哈利所缺少、而一个真正的“朋友”所拥有的是什么?你又如何确定自己拥有那些东西,以保证自己不是一个和哈利一样的人工智能呢?

    艾伦·麦席森·图灵在他1950年的一篇论文《计算机器与智能》中提出了“图灵测试”的概念,图灵测试指的是,测试者和被测试者隔开的情况下,测试者向被测试者随机提问,如果一定数量的测试者无法通过被测试者的回答分辨被测试者是人还是机器,那么这台机器就通过了图灵测试。

    强人工智能,就是能完成人类的任何任务的人工智能,一个完善的强人工智能应该能通过一种更广义的图灵测试——它能做到不仅在语言上无法被分辨,也能在行为举止上模仿人类不被发现,就像我们在上面的故事中虚构出来的哈利——你跟他生活了几十年,直到他的身体里流出机油,才发现他不是一个传统意义上的人类。至今为止人类创造出来的人工智能还只能在某些特定的领域替代人类的智力工作,比如下棋、写诗、换脸、数据搜集等,人类还没能创造出能在任何方面替代人类的强人工智能。

    同时,机器人可以分为“类人机器人”和“非类人机器人”两种,“非类人机器人”从设计理念上就没有想要去模仿人类,它们往往与人类差异很大。而“类人机器人”就是完全为了模仿人类制造出来的那种机器人。

    我们接下来要讨论的问题,就是在哈利的故事中,“你”不得不面临的问题——如果类人强人工智能出现了,它是否有权被我们当作邻居、朋友、家人对待,而不仅仅当作是一种新型工具。

 

二,分析问题和外在条件

    进一步分析问题之前,我们首先需要阐明分析立场。

    我们对于强AI的道德主体地位的分析是基于自然主义的,也就是尊重科学,接受科学的结论,在科学结论的基础之上进行哲学思考,特别是,接受进化论,承认人类是自然进化产生的自然生物体,拒斥上帝、灵魂、先验自我等超自然的实体,拒斥不可知论;当然,这不代表我们要在任何时候都使用科学的结论,我们只是要求不与科学的一些基本论断相矛盾。同时,我们尊重直觉,当然,这也不意味着我们就要把任何直觉都当做金科玉律来遵守,而是说无论何时我们要拒斥某种直觉,都会给出充分的理由来加以说明。

    我们要利用的第一个直觉是,不存在非人的道德——与人类的道德规范不相同甚至不适配的道德规范不可以被称之为道德规范。

    如果我们说,老虎有道德主体的地位,可是老虎吃了人我们又不去谴责它,老虎帮助了人类我们也不去奖励它,不把老虎当作一名社会成员看待,那么我说它是道德主体这句话也就没有意义。因为认为某个实体是道德主体,就意味着我们要用人类的道德标准去规范它,把它看作是道德权利和道德责任的承受者,同时也就意味着我们要能够接受它作为我们人类社会的一员。

    强AI是否是可能的道德主体,可以从内在条件和外在条件两个方面判断。

    我们说某个实体符合道德主体的外在条件,就是说,不管这个实体的内在结构是怎样的,也不管它的内在结构对外界的影响和与外界的交互遵循什么样的机制,仅仅从外在上,这个实体被我们当做道德主体是可能的,不会引起矛盾和不一致。

    内在条件指的是这样一种观点,一个实体之所以能够被看作是道德主体,是因为它内在具有某些结构或者质料,比如大脑、有机质、灵魂等。我们在后面的论述会强烈质疑内在条件的可能性。

    为了进一步理解问题,我们可以设想未来强AI果真出现了,我们赋予它道德主体资格和不赋予它道德主体资格,这世界分别将会是什么样子。

    我们要利用的第二个直觉是,一种符合外在条件的类人强AI是可设想的。

    虽然我们目前为止还没有创造出那种类人强AI,但是“欲望”、“情绪”,是可以被程序模仿的,我们可以设想一种很容易构造的反馈机制——每做一件好事,或者得到一些“财富”加上一分,每做一件坏事,或者受到一次“惩罚”减去一分,通过改变权重,我们就可以模拟出人类情感的外在表现。显然,这样的一种AI和人类是能够共存的,它的道德与一个普通人类的道德别无二致。

    情况1:如果即便未来出现了上述的这种符合外在条件的类人强AI,我们也不把它们当作道德主体看待,举例来说,在哈利那个故事里,你杀死哈利或者被哈利杀死,你和哈利都没有道德责任。从我们人类整体来看,无非是多出来了一种类似于古希腊时期的奴隶那样的“会说话的工具”。但是那样我们会遇到道德两难。

    首先,既然它仅仅是会说话的工具,那么它的一切行为都可以被视作他的制造者或使用者意志的延续,它行为的后果,其道德责任和权利都落到背后的那个人类身上,因为对一个工具进行道德评价没有意义。

    或者我们也可以归因于“偶然”,因为一个工具有时也会不受控制。强AI,就其定义来说,他的制造者不可能提前预知到他在任何情境下的每一个决策,所以很多时候不能单纯将强AI视作制造者或者使用者的延伸。

    我们利用的第三个直觉是,如果强AI内置的任何一种算法都不能充分解释它的行动,我们既不希望把它的行为视作它制造者意志的延伸,也不希望把它的行为归结于偶然。

    例如如果一个强AI表现出谋杀了一个人类(先不管它是否有谋杀的“意愿”)——它先是探明了被害者的行动规律,然后准备了凶器,之后果断行凶,然后销毁赃物,最后查明被害者是它公司竞争对手的总裁。

    我们直觉上一定会认为,这个总裁的死不是“意外”——被人工智能“谋杀”与被雷劈死、被陨石砸死一定不同。但是它的制造者一开始并没有在他体内输入“谋杀”的程序,因此也无法完全归罪于制造者。

    我们可以借助这两个思想实验理解纯工具和被创造出来的道德主体的区别:

    1.小说家罗琳制造了一个机器人,这个机器人的行动规则是这样的:当罗琳把经过编码后的数据输入,它就会解码并且把文字写到纸上。而罗琳把她的小说《哈利波特》通过某种对应关系编码之后输入到机器人的CPU中,这时这个机器人与一个打字机无异,我们直觉上会认为《哈利波特》是罗琳而不是机器人写的。

    2.邪恶科学家小明对一个受精卵进行了基因修饰,让这个受精卵获得了“聪明”基因,这个受精卵长大后成为罗琳,写出了《哈利波特》,我们直觉上会认为罗琳不仅仅不是小明的工具,反而会认为《哈利波特》正是罗琳写出来的。

    强人工智能更多时候接近于后一种情况,在这种情况下,不把强人工智能视作道德主体就会遇到困难,因为我们会找不到那个既符合直觉,又符合科学的道德承担者,就像在后一种情况下,如果不认为罗琳是《哈利波特》的作者,我们就找不到《哈利波特》的真正作者是谁了,我们总不能说《哈利波特》是意外产生的。

    情况2:反之,如果我们赋予强AI道德主体地位,这一方面意味着强AI具有道德权利,例如自我存续的权利等,另一方面意味着强AI具有道德责任,例如不去伤害其它人类和AI的责任等。一个具有道德主体地位的类人强AI机器人的所有著作,例如诗歌、小说等等,这些东西的收益都归它自己所有,并且这个强AI机器人一旦谋杀了某人,那么这个机器人,而不是他的制造者应当为此行为负责。由此至少可以避免上述的两难。

    总而言之,一个符合外在条件的类人强AI是容易设想的,而把它当作道德主体会避免一些道德上的两难

    外在条件的方面就已经论证完毕了,接下来我们会讨论从内在条件方面,否定人工智能具有道德主体地位的两种理由。

 

三,内在条件

    第一种理由是实体二元论,它自笛卡尔始,到现代又变种为有机论、活力论。

    这种理由认为强AI不可能是道德主体,仅仅因为它没有和人类一样的生理结构,没有大脑、松果腺、或者没有氨基酸盐,或者蛋白质结构等等,他们认为机器是简单的、可知的,而他们通常把心灵赋予某个结构,又因为这个结构是复杂的(有机的),所以不可知,并且具有某种不可知的“活力”,导致它是能动而非被动的。因为人的“主观感受”往往被视为是复杂的,所以他们就认为心灵一定也存在于某个复杂体之中,那些能够被充分认识的简单的东西,比方说程序、算法,是不可能有心灵存在的。但其实我们虽然是类人强AI的算法的设计者,却也仅仅知道一些基本的原理,不能完全预测强AI的行动,这和我们对人类大脑的认识程度是一致的。就算我们可以认识到,肉的香味会刺激狗的大脑产生某种物质导致它觅食的行为,但是我们不会因此认为狗不是“主动”,而是被动地去觅食的。所以说简单的东西中未必不能有意识存在。

    并且,随着人们对大脑的认识不断加深,我们也已经知道松果腺仅仅是一个普通的腺体,就算破坏掉也不会导致人变成行尸走肉。有机论也随着现代科学的发展被拒斥了。事实上科学并不能给出有机物和无机物之间明确的界限,甲烷是有机物,可它显然没有什么“活力”,蛋白质看上去有“活力”,我们知道酸碱物质会使蛋白质“失去活性”,甚至有些蛋白质的功能十分复杂,乃至于会“自主”繁殖(例如朊病毒),但这只是一个比喻的说法,科学上没有理由认为蛋白质的运动就是“主动的”,无机物的运动就是“被动的”。

    总之,自笛卡尔以来的那种实体二元论,无论出现何种变种,都已经被科学拒斥了,对于这一类观点,我们通通都用自然主义的立场加以拒斥。我们相信,就算未来出现某种新的实体二元论的变种,也或早或晚地会被科学否证。

 

    第二种理由是我们论述的重点,这种理由认为强AI没有被称为意识或者感受质的东西,他们认为人类的大脑中有某种必要,而非实体的结构使人类区别于动物和其他任何无意识的实体,具有了道德主体的地位。这种观点一般被称作当代心灵哲学二元论,这种观点否定了取消主义,认为主观上的感受性质不能完全还原为物理术语。我们先借助两个思想实验简单介绍这观点,然后借助泛心论证明,类人强AI机器人有意识,和他心存在,这两个命题的强度是一样的,既然我们不得不假设他心存在,我们也不得不对类人强AI机器人同样抱持意向性立场

    那种认为机器没有“意识”的思想实验,最著名的要属塞尔在1980年提出的“中文屋”思想实验,这个思想实验构想了一个不懂中文的人,身处于只留有一个小窗口的封闭房间之中,这个房间里有着足够多的书,书里面的内容是从一段中文向另一段中文的映射,而房间外有人把一张张写着中文的小纸条塞进来,这个人则按照书上的命令把同样写着中文的小纸条递出去。这种情况就像这样:外面的人写:“您早上吃了吗?”,里面就回复:“吃了,今天吃的煎饼和豆腐脑。”外面的人说:“今天天儿真好啊。”里面就回复:“是啊,但是天气预报说明天就要下雨了。”

    塞尔认为,通过这个过程就可以让房屋外的人认为屋子里的人会说中文,但是其实屋子里的人却对中文一无所知。他认为计算机就是类似于这样的程序,因此不可以认为只要计算机外在表现出有意识,就认为它的内在是有意识的。因为以图灵机为基础的计算机只能理解语形而不能理解语义,对语形的理解不能推出对语义的理解。

    但这一思想实验仅仅论证了目前以图灵机为基本原型的电脑不能理解语义,因此它们与人脑不同,并没有论证心灵是什么,更不能论证相比于自然界中其他无心灵的物质,有心灵的大脑有何独特性(不能理解语义不等于没有意识)。

    另一个著名的思想实验是黑白玛丽的思想实验,设想一个叫玛丽的小女孩从出生就被关在一间黑白色的房间里,她可以通过黑白色的电视机或者书学习到各种物理知识,当然也包括光学和神经学知识,我们假设当她学会所有物理知识后被释放出来,她看到一朵红色的花的时候,是否学到了新的知识?塞尔认为,她一定会惊讶:“哦,原来红色是这个样子!”但是并不是任何新的知识让她感到惊讶,而仅仅是看到红色这种感受让她惊讶。这个思想实验被用来论证世界上并不是仅有物理的事物,比如还有“感受质”——也就是看到红色时的那种感受,就不能被还原为物理现象。

    让我们仔细去考虑在这个思想实验里不可被还原的东西是什么,我们认为不可被还原的并非是普遍存在于人类大脑中的某种神秘的“感受质”,而是第一人称本体论意义上的“主观感受”。

    其实说到底,黑白玛丽不过是在说这样一件事情:关于颜色的波长、看见颜色之后的神经状态之类的知识,是经过了重新编码的,例如我告诉你“红色的波长是700纳米”,这个信息相对于“看到一种700纳米波长的红光是什么感觉”这一信息是经过重新编码的,如果你想要教会我“看到一种700纳米波长的红光是什么感觉”,你不仅要告诉我红色的波长是700纳米,还得把编码器给我——例如一个标准比色板,上面有波长-颜色一一对应的图案;或者教会我如何解码——单凭语言或许做不到这一点,但我们总有些方式能做得到,只不过黑白玛丽的思想实验禁止了我们目前为止知道的可能的方式,如果未来我们能发明某种“通感器”,让我们能听到、品尝到红色,这个思想实验也就不攻自破了。无论如何,这种解码的能力绝不是大脑特有的。

    但是我们直观上会接受黑白玛丽这个思想实验的结论,其实是我们把自己入玛丽、混淆了第一人称的主观感受和第三人称的感受质的结果

    我们不妨把它略加修改——假如那个被关进黑白房间的人是你,看到红花的人是你,是你觉得惊讶:“哦,原来红色是这个样子”。修改人称之后,这个思想实验看上去没有变化,其实会变得完全不同。玛丽的“惊讶”并非不可还原,我们坚持自然主义的话,“人生中第一次看到红色”的这种感受无非是一种“脑状态”。但是如果是“你”去看红色则大不相同了,我们不得不承认“你”的第一人称主观感受是无法还原为“脑状态”的。

    一个极致的怀疑论者可能会怀疑“他心存在”,但是很少会怀疑“我心存在”,因为似乎宣称“我不过是一个机器”,“我的意识不存在”,这句话没有什么意义。普特南通过类似的策略否定了人类是缸中之脑的可能性,他认为你不可能融贯地说出自己是缸中之脑。

    你的直觉在接受黑白玛丽思想实验的时候,其实是混淆了“我心”和“他心”的区别。“感受质”这个概念只有应用到第一人称时才会有效,换言之,如果你认为他人有感受质,你同样无法拒斥机器人也可能有感受质的观点,对于“感受质不可被还原”这一直觉,只有在“感受质”这个词作用在你自己身上时才有效,因为一个主体无法将自己物理主义地客体化,因此主体只能知道自己有感受质,认为他人有感受质是一种意向性立场,而这也并非无法适用于机器人。

    但是,我们想要做的仅仅是确立类人强AI作为道德主体的内在条件,所以我们不试图消除第一人称视角和第三人称视角之间的鸿沟——主体与客体之间的鸿沟,这是哲学几千年以来也没能解决的问题。我们只需要消除在“他心”和“机器心”这两个概念之间直觉上的差异(而不是“我心”与“他心”),我们要证明,通过进一步理解自然主义,这种直觉是容易消除的——通过找到某种成分(例如感受质),可以让我们把人类的意识存在和那些被我们认为仅仅是意识的表征的东西区分开。

    为此,我们需要简单介绍自然主义心灵哲学中的泛心论。

    所谓泛心论就是认为世间一切实体都有心灵。当代泛心论的一种论证路径是进化论的:首先,我们这些健全的人类具有意识,我们拒斥了取消主义“心灵是幻觉”的认识;其次,我们人类是从古猿进化而来,再往前,古猿是从小型哺乳类、某种生活在海洋中的脊椎动物、某种早期的虫子,乃至于单细胞的生物进化来的,单细胞的生物最终也不过是有机分子的意外碰撞,有机分子又是在原始大气中由无机分子经过化学反应合成的。只要我们承认:我们的父辈是有意识的,我们父辈的父辈也是有意识的,我们又不可能追溯到某一代人、古猿或者虫子,从他们那一代生物开始,人类在进化树上这一分支有了意识,而他们的父辈则没有。在这里我们假设华莱士的那种涌现进化说是不正确的,同时,就算进化过程不是连续不断、处处可分的,基因漂移的现象存在,但那种断裂绝对不足以让无意识的种族突变成为一个有意识的种族。

    因此,唯一的理论进路或许是——如果我们坚持人类的意识不是幻觉,又不想违背自然主义的立场,我们就不得不承认,从无机物到有机物,从原子分子到桌子椅子,都是有意识的。这不禁让我们重新反思意识是一种什么东西。心灵哲学家查尔莫斯作为当代泛心论者的代表人物,就认为心灵不过是刺激-反馈机制,因为任何事物都有某种反应机制,在这个意义上,可以更广泛的说,心灵就是任何事物的本质。

    他用恒温器举例,一个恒温器,它会接受外界的信息——气温的信息,并且做出反馈——它会改变环境的气温。既然恒温器有刺激-反馈机制,我们就可以说恒温器是有意识的——他“想要”去把他周围的气温调节到合适的温度。

    如此而言,任何一种原本描述某物本质的语句都可以再描述为某种意向状态,例如:某原子具有本质X:当它受到力A,就会获得动量B,我们可以再描述为,某原子具有性格Y:当他受到力A时,就会选择动量B。

    只要我们能够框定某一个范围,例如一个或者两个原子、一个苹果、桌子的一角、撒哈拉沙漠中某片无规则的沙丘等,我们就可以划定它的本质,把它看成是一个系统,并且认为它有意识。我们需要做的,仅仅是一个再描述的过程,而这个过程在丹尼尔·丹尼特那里被称为使用“意向立场”,他认为有意识与无意识的界限并不是在自然界中实在的,等待我们去认识的,那些所谓“有意识”的东西,无非是我们对它们采取了一种“意向立场”。

    泛心论向我们展示了自然主义的一个理论后果。当然,我们不必接受泛心论,但是我们理解泛心论的同时也就能理解,为什么说他人有心灵和说机器人有心灵是同等强度的命题,因为至少从科学上,并没有一种内在的本质特征能够把肉脑和机器脑区分开,让我们认为肉脑有机器脑没有的“意识”。

    从心理学上说,如果大脑有什么独特性的话,可能无非就是我们更容易把自己投射到有大脑的生物,尤其是我们的人类同伴身上——这是我们许多幻觉的来源。托马斯·内格尔质问我们:成为一只蝙蝠是什么样的?我们不妨更进一步质问:成为一名同类是什么样的?成为一只蝙蝠、成为一个类人强AI,与成为一名同类有何区别?如果此时此刻你的面前突然出现一只会说话的外星智慧蝙蝠——除了长了一双翅膀,并且会用超声波“看”东西之外与人类无异,你也会觉得成为一个外星智慧蝙蝠是什么样的,是很难以设想的吗?

四、结论

    以上,我们先是基于自然主义和尊重直觉的立场,阐述了强人工智能是道德主体与不是道德主体世界会是什么样子;然后分析了强AI满足外在条件的可设想,以及如果在满足外在条件前提下,我们拒绝赋予它道德主体地位的后果,由此引出赋予它道德主体地位的需要;然后我们又分析了内在条件的不可能性,我们通过解释了泛心论来拒斥两种反对人工智能主体地位的直觉,最终得出结论:类人强人工智能是可能满足外在条件的,而只要一个实体满足外在条件,我们就应当把它当作道德主体。

 


强人工智能是否具有道德主体地位的评论 (共 条)

分享到微博请遵守国家法律