欢迎光临散文网 会员登陆 & 注册

从《心理测量者》说说人工智能

2018-03-04 01:10 作者:耳边蚊  | 我要投稿

在近未来的日本,人类的心理状态和性格倾向都能被数值化和被监测。而这些信息,都被一个名为西比拉的计算机系统记录并管理着。城市里布满监视摄像头和巡逻机器人,监测人们的“犯罪指数”。一个人的犯罪指数超过一定值,说明他心理极度不稳定,随时有犯罪的倾向,甚至已经犯了罪。这时西比拉系统会通知警察去逮捕此人,把犯罪扼杀在摇篮中,或阻止犯罪进一步进行,而不是事后再去“破案”。有了这样的系统和社会制度,人们可以依赖计算机安居乐业、享受现状。这便是《心理测量者》的社会。

前年这个时候,AlphaGo在人机大战中以4:1战胜了世界围棋冠军李世石,后来又在网络上化身为Master与中日韩围棋高手连续进行60局快棋对决无一败绩。人工智能(AI)已经在棋类中最复杂的一个项目上击败了人类,让人又兴奋又害怕:我们将来会不会像《心理测量者》描述的那样被AI统治?

对于AI,我跟大部分人一样,不懂技术(什么神经网络、遗传算法,看着就头疼),只能谈论哲学(伪)意义上的问题。



弱AI、强AI

AI分为弱AI和强AI。弱AI没有“思维”,它根据且只根据计算机的程序而行动,严格来说可能都算不上“智能”,只是看起来智能而已。语言识别、图像识别、无人驾驶等,都是弱AI的应用。AlphaGo也只是弱AI,它们只有单一的“功能”,与人类的智能级别还差很远。

而强AI的智能级别与人类相当,不仅仅集成了计算机、算法和程序等理性元素,它还拥有“思维”,会自发性地“思考”和解决问题。很多关于AI的科幻小说和影视作品中,都有人类被自己制作出来的机器人策反的情节,这些都是强AI才有可能实现的,也正是人们所恐惧的。


图灵测试

那么机器人能不能“思考”?1950年,“计算机之父”图灵在论文《机器能否思维?》中提出了图灵测试。3个被测者A、B、C,其中A是计算机,B、C是人类。将A、B安排在同一个房间内,C在门外。C的任务是,通过各种提问来判断A和B哪一个是计算机,哪一个是人类。如果A能和人一样回答C的提问,导致C无法做出判断或者判断错误,则可以认为计算机A拥有人类级别的智能。

在图灵看来,思考是来自大脑的工作过程,并不依赖于大脑的组成物质。因此,虽然程序本身不能产生“思考”,但当机器中程序的规则总体足够庞大,并且其复杂性达到了人类大脑的程度,在外部观察者看来,它就能像人类一样得出具有逻辑的、或富有感情的、以及创造性的结果,就像是经过了思维活动之后的行为。图灵测试作为一个AI的判断标准,并不关注机器内部是如何得出结果的,只要在相同条件下得到的结果与人类的外在行为相当,就认为它拥有了人类级别的智能,即强AI。因此他认为强AI在将来必然可以实现,只要技术发展到计算机能力强大如人脑。


中文房间

图灵的观点遭到很多人反对,其中最有代表性的是美国哲学家约翰·塞尔,他在1980年设计了一个思想实验“中文房间”。一个只会说英文的人D被放到一间封闭房间里,里面有一台专门用于中英互译的计算机以及纸笔。房间外的人E用中文把问题写在纸上,通过房间唯一的小窗口递给D。D使用专用计算机翻译后,用中文把问题的回应写在纸上递回给E。这样D就可以利用计算机让房间外的人认为他能流利的使用中文。

但他实际上会中文吗?并不会。虽然就结果来说,D使用中文回答了问题,但他并未“理解”中文。退一步说,即使将房间作为一个整体对象去考察(而不是考察D这个人),此时房间熟知中文规则,但依然不能说它理解了中文——它只是依照既定程序运作而已,不会像人类一样自发地做出其他智能行为,比如用中文写一篇文章。即使它能写,它也根本不知道自己在写什么。塞尔认为,不管计算机多么发达,它仍无法通过程序获得任何“理解力”、思想、情绪等人类的心理特征。所以强AI仅靠计算机是无法实现的,它必须要具备人类的一些“心理状态”,或者说“意向性”。(意向性这个概念太复杂了我说不清楚)


《攻壳机动队》Tachikoma小剧场


之所以要说这么多,是因为我没法几句话说明思考是怎么回事,事实上连科学家都未能明确地解释这一问题。当然关于强AI,后续还有很多争论和发展,这里就不写了。可以肯定的是,除非有非常重大的科技突破加上人文、经济等一系列条件的允许,否则在有生之年,地球被AI统治这种事只是无稽之谈。



那需要担心的是什么?

动画第17集,西比拉向槙岛圣护呈现了真相——它其实是由200多个人类大脑作为中枢、加上外围的机器处理系统组成。虽然不知道是怎样做到的,但这不就是最粗暴的“强AI”吗?仍然不是。最明显的证据是,它外在的表现并不懂人心。



作为西比拉系统一个最重要的功能之一,Dominator指向人类时只能检测出一个数值。0-99扳机被锁,100-299切换为麻醉模式,300及以上则是致命模式——多么无脑的判断。正因为这种傻瓜式机制,常守朱面对犯罪指数300的罪犯时,为了不杀死他,会等他降到299时再开枪制服。这个问题其实在第一集就暴露了,慎也执行官要杀死女孩时,常守朱作出“这个女孩只是一时受到惊吓而犯罪指数飙升,经过心理辅导完全可能变回正常人生活”的判断,而对慎也开了枪——这正是对强AI的要求,也是西比拉做不到的。



禾生局长与宜野座监视官说过,西比拉并非完美,所以它的应用还是要由人类来完成。然而很多警察还是把一切交给西比拉,自己放弃思考。霜月美佳就是这一类人的典型代表。



普通人就更离谱了,如禾生局长所说:“人们在自己苦思冥想之前,会先寻求西比拉的判断。”他们有智能管家,饭来张口,一键换装(我一直好奇这是怎么做到的,怕不是全息投影吧括号笑)。他们靠西比拉选择职业,甚至爱人。他们可以在街上围观、录像头盔男对别人的暴打而不出手相助。与我们现在说的“人性冷漠”不同,他们甚至不会产生“我要不要救”的挣扎,因为这时西比拉系统没有发出警报。

正因如此,社会需要常守朱。只有常守朱这种人——对人类的思维和“心理状态”敏感、兼具理性和感性、相信自己的判断多于西比拉——才是警察的最适合、也是最需要的人才。



所以第一点要担心的,是过度依赖AI,完全丧失思考能力。那是另一种意义上的统治。

其次是失业,这对于普通人来说是更为严重的问题。在动画中表现为农民的消失,农业生产完全由计算机接受管理;工业领域的基本制造工作也被机器取代。一开始只是简单重复性的基层劳动被代替,但随着AI技术的发展,这个范围可能会进一步扩大。所造成的就业缺口如何解决,是全世界都要面对的课题。

最后,警察故事当然要有犯人,槙岛圣护与鹿矛围桐斗通过行为艺术般的犯罪质问西比拉和它的奴隶们。抛开动机不说,犯罪就是犯罪,而且是利用AI犯罪。这是我们第三点要担心的、会对社会和人类造成直接伤害的隐患。还记得去年中秋的程序员抢月饼事件,他们可能只是贪小便宜,或仅仅是开一个玩笑。技术无罪,但我们难保将来不会有人利用AI技术作更大的恶。面对罪恶,预防总要比事后处理好。从社会稳定的角度看,西比拉确实是有其优越性的。这也是常守朱不揭发西比拉系统真相的原因之一。



《西部世界》中,老鸨梅芙·米勒发现了西部世界的真相,还利用自己的魅力控制了两个人类来帮自己逃跑。她以为这一切都是自己的意志、自己思考得出的结论和行动,结果发现这还是程序决定的,决定了她的发现、她的逃跑计划、甚至她说的每一句话。老福特在退休演讲结束之际,让自己创造的接待员进行屠杀,给他的新故事拉下了帷幕。

AI可怕吗?至少在真正意义上的强AI诞生之前,人类最大的敌人,还是人类。


从《心理测量者》说说人工智能的评论 (共 条)

分享到微博请遵守国家法律