人工智能的未来(中)
强人工智能
强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(Problem_solving)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。可以独立思考问题并制定解决问题的最优方案,有自己的价值观和世界观体系。有和生物一样的各种本能,比如生存和安全需求。在某种意义上可以看作一种新的文明。
历史
"强人工智能"一词最初是约翰·罗杰斯·希尔勒针对计算机和其它信息处理机器创造的,其定义为:
"强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。"(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980。但事实上,Searle本人根本不相信计算机能够像人一样思考, 在这个论文中他不断想证明这一点。他在这里所提出的定义只是他认为的"强人工智能群体"是这么想的,并不是研究强人工智能的人们真正的想法。因此反驳他的人也不少。可参考:《 A Chinese room that Understands》- herbert A. Simon & Stuart A . Eisenstadt)。
拥有"强人工智能"的机器不仅是一种工具,而且本身拥有思维。"强人工智能"有真正推理和解决问题的能力,这样的机器将被认为是有知觉,有自我意识。
强人工智能可以有两类:
类人的人工智能,即机器的思考和推理就像人的思维一样。
非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。
"强人工智能"引发起一连串哲学争论,例如如果一台机器能完全理解语言并回答问题的机器是不是有思维。哲学家希尔勒认为不可能。
也有哲学家持不同的观点,认为人也不过是一台有灵魂的机器而已,为什么人可以有智能,而普通机器就不能呢?
关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了个中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。
也有哲学家持不同的观点。Daniel C. Dennett 在其著作 Consciousness Explained 里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:"人可以有智能,而普通机器就不能"呢?他认为像上述的数据转换机器是有可能有思维和意识的。
人工智能现在的发展前景如何?
据传说,一门新技术的产生与成熟,会经历下面一条叫做“Gartner曲线”的过山车式发展轨迹,如下图所示。不过,人工智能的发展轨迹,却比这个要销魂地多,到目前可以说是三起三落,当然,这个第三落还没有到来,也未必一定会到来。
我进入这个行业已经有十多年了:博士期间,我做的是语音是别的研究,毕业开始又到MSRA接着干这个。虽然我们的两任院长——李开复老师和洪小文老师都是语音研究出身,却丝毫不能改变当年这一项目在全院最鸡肋的地位。因为在当年,各种各样的人工智能应用能真刀真枪上阵的并不多。更别提要是向互联网界提起自己是做“人工智能”的,那简直就像在两会会场上上偷看了毛片那样无地自容。实际上,那个时期,正是人工智能发展的第二落。
以史为鉴,可以知兴衰。为了探讨人工智能的发展前景,我们简单回顾一下人工智能前面发展的三起两落。
一、六十多年前的达特茅斯会议,提出了“Artifitial Intelligence”的课题,目的是让逐渐成熟的计算机能够代替人类解决一些感知、认知乃至决策的问题。这样一个课题是如此令人神往,也迅速吸引了大量学者的眼球,相关的研究也如火如荼地开展了起来。是为第一起。
二、初,学者们解决人工智能问题的思路,是以人为师,通过专家编制规则的方法,教机器下棋、认字乃至语音识别。在今天看来,这样的方法是完全南辕北辙的——人类的视听器官虽然很发达,却并没有能力总结提炼其中的规律。于是,人工智能的美好憧憬中迎来了残酷的现实,学者们发现解决问题是如此遥远,围观群众也一度认为人工智能的学者都是骗子。是为第一落。
三、既然靠人指导不行,那就要祭出“实事求是”的法宝,从数据里统计规律。在这样数据+统计的方法论下,诸如人脸识别、手写识别等一些较为简单的问题取得了重大进展,而在当时最困难的问题——大词表连续语音识别上,统计方法也是史无前例地造就了实验室中“基本可用”的系统。到此时,我们感觉找到了解决人工智能问题的基本思路。是为第二起。
四、数据+统计模型的方法盛行以后,也很快遇到了瓶颈:数据量的提升并不总能带来识别率的提高。当然,我们很早就知道“深度模型”比“浅层模型”学习数据的能力强,无奈这种模型的计算代价极高,只能望洋兴叹。拿语音识别为例,在“基本可用”到“实用”之间的鸿沟,十几年都没有跨过去,于是大家又转向悲观,觉得人工智能还只是个梦。是为第二落。
五、第二落以来,继续坚持在“深度神经网络”这条战线上的学者很少,因为做这个是拿不到funding的。其中有一位老前辈Jeffrey Hinton,和他的学生Alex一起,发现用GPU算神经网络,能大幅提高速度,于是这种模型居然可能实用了。一旦实用,深度模型可以疯狂吸收数据的优势就发挥出来了,于是在语音识别、图像识别等领域带来了飞跃式的进展。是为第三起。
当然,工业界的看到的这第三起,比我们上面轻描淡写提到的内容要波澜壮阔得多。不过,不要太在意,因为各路大佬不论过去是做黑产、卖假货还搞劫持的,都摇身一变成了人工智能的忠实拥趸和业界先驱——虽然他们的数学也就是初中肄业水平。去年,当我听到某此类上市公司老板歇斯底里地在财报中喊出要投入数千万美元搞人工智能时,不由心生感慨:修脚的可以挂妙手回春的锦旗,但千万别说自己是做精准医疗的!
虽然人工智能的第三起确实有了质的发展,但考虑到这些沉渣泛起的为人工智能从业者,我觉得第三落还是会来到,只不过并非对行业本身的怀疑,而是自我净化罢了。
而人工智能的行业发展趋势,由于大规模数据+大规模算力的基本方法论已经成熟,今后的发展路径是十分清楚的:在那些数据储备充分、商业价值清晰的场景,人工智能会迅猛发展,投身于这样的行业中期发展会非常好;而医疗、教育这类领域,由于电子化数据的整理与积累尚需时日,可以需要一个较为漫长的发展过程。
至于人工智能非常核心的问题,也就是关于“认知”的问题,我认为到目前为止还没有任何方法论上的突破,也更谈不上解决,不过扯到这个话题就太大了,我们找其他机会再聊。
这个问题太大了,分成两段讨论吧。事先声明,由于问题太大太大,我写的这份总结既不保证完整,也不保证客观。
1. ===功能===
人工智能现在已经能实现很多功能了,比如
语音识别——李开复博士当年做的工作奠定了很多当今识别系统的基础。这里忍不住说一下,Siri本身的技术并没有特别大的亮点,真正nb的是它的模式(语音识别直接与搜索引擎结合在一起,产品体验做得好。而且关键是这样的模式能采集到更多数据,使得系统的精度越来越高)
自然语言理解——目前看到的最强的结果应该是IBM Watson。但其实我们现在用的搜索引擎、中文输入法、机器翻译(虽然其实还不怎么work)都和自然语言理解相关。这块儿不是我的专业,请 @段维斯 同学补充。
数据挖掘——随着近年数据量的疯狂增长,数据挖掘也有了长足进步。最具有代表性的是前几年著名的Netflix challenge(Netflix公司公开了自己的用户评分数据,让研究者根据这些数据对用户没看过的电影预测评分,谁先比现有系统好10%,谁就能赢100万美元)最后这一比赛成绩较好的队伍,并非是单一的某个特别nb的算法能给出精确的结果,而是把大量刻画了不同方面的模型混合在一起,进行最终的预测。
计算机视觉——目前越来越多的领域跟视觉有关。大家可能一开始想到的都是自动驾驶。虽然大家都在说googleX的无人车, 但实际上现在无论是商业上,还是技术整合上最成功的算法是Mobile Eye的辅助驾驶系统。这个公司也是目前computer vision领域最挣钱的公司。
从实现新功能方面说,视觉的发展的趋势主要有两方面,A) 集成更多的模块,从问题的各种不同方面,解决同一个问题(比如Mobile Eye,就同时使用了数十种方法,放到一起最终作出决策) B) 使用新的信息,解决一个原来很难的问题。这方面最好的例子是M$的Kinect,这个产品最让人拍案叫绝的就是那个红外pattern投影仪。
2. ===理论基础===
这里说的是数学理论,是为实现功能解决问题而存在的。与人类的智能的联系在下一节说。从这个角度,我们已经有了很多强有力的数学工具,从高斯时代的最小二乘法,到现在比较火的凸优化,其实我们解决绝大多数智能问题的套路,都可以从某种意义上转换成一个优化问题。
真正限制我们解这个优化问题的困难有以下三个:
计算复杂度——能保证完美解的算法大都是NP-hard的。如何能让一个系统在当前的硬件下“跑起来”,就需要在很多细节取巧,这是很多learning paper的核心冲突。
模型假设——所有模型都要基于一些假设,比如说,无人车会假设周围的汽车加速度有一个上限(至少不会瞬间移动吧,否则怎么闪避)绝大多数假设都不能保证绝对正确,我们只是制定那些在大多数时候合理的假设,然后基于这些假设建模(比如,在语音识别里,我们是否要假设存在背景噪声呢?如果有背景噪声,这个噪声应该符合什么特点呢?这时候无论你怎么定标准,总能找出“反例”)
数据基础——任何学习过程都需要数据的支持,无论是人类学说话学写字,还是计算机学习汽车驾驶。但是就数据采集本身来说,成功的案例并不多。大概这个世界上最强的数据采集就是google了吧。每次你搜索一个关键词,然后点进去,google就自动记录了你的行为,然后以此数据来训练自己的算法。
这个问题太大了,分成两段讨论吧。事先声明,由于问题太大太大,我写的这份总结既不保证完整,也不保证客观。
“人工智能”这一术语自1956年被提出,到电子计算机作为一种可以模拟人类思维的工具出现,使人工智能这一技术有了一个展现的平台,开始了探索与发展。1997年,IBM公司的“深蓝Ⅱ”超级计算机,击败了国际象棋卫冕冠军Gary·Kasparov,这一现象,标志了人工智能技术的一个完美表现,再到近些年的Alpha Go,人工智能的发展似乎已经到了一个比较高端的程度。
人工智能的发展历程中,慢慢引起了人们对于人工智能的一些恐惧,艾萨克·阿西莫夫(Isaac Asimov)曾在自己科幻小说中描绘出的一些担忧,随着如今科技的神速进步,好像真的会在不远的未来变成真实。
但那些都太遥远了,在现如今的世界背景之下,各国都把人工智能列为一项备受重视的技术,我们国家也不例外。
最近京东就举办了一场人工智能创新峰会,现任我国科技部创新发展司副司长的余建在峰会上提到了当今世界各国对于人工智能技术的重视以及发展状况,并明确表示国家对于人工智能发展的高度重视,为此说明了我国在发展人工智能技术上确立了一个“三步走”的战略。
同时他还代表国家的立场表示了:人工智能技术是引领未来的创新性技术,且在国家经济以及互联网、大数据及超级计算机的发展之下,AI技术的发展也进入了具有深度学习,跨界融合,人机协同,群智开发自主操控等特性的新阶段。这些具有新特性的AI技术将对人类的生产、生活乃至思维模式都产生重大的影响。
国内现有的以BAT为首,外加科大讯飞四所公司所构筑的的人工智能平台,基本成为了我国人工智能领域的四大支撑,此外,国家还鼓励企业作为人工智能发展的主体,并坚持以市场作为发展的主导。
由此足可以想见,人工智能领域的发展在国家策略的支持下,拥有着相当光明的前景。
此外,人工智能领域的知名科学家,原IBM WostonGroup的首席科学家周伯文博士,现在在京东作为副总裁并主管人工智能研究与相关平台的业务。不太了解的人大概也会对IBM这个词有点印象,我在前文中也有提过,就是1997年击败国际象棋大师的“深蓝Ⅱ”所属的那家公司。
周伯文在这次峰会上也发表了相当精彩的演讲,他借用当初开发C语言的科学家在第一行代码中所用的“Hello World”表明了这次京东AI技术所怀揣的抱负。接着提出了今后人工智能的发展拥有三个阶段,而现在我们仅处于最初级的阶段,如果将人工智能做好做完全,其规模将比现在要大十倍甚至百倍。
他所认为的人工智能发展的三个阶段分别为:
1,目前我们所处的阶段,人工智能依然依赖于专家设置的体系结构,学习性也依赖于人工设计的算法。
2,广义性的人工智能,广义性的人工智能可以选择性的通过不同的来源,而不是像现在一样依赖于标准的数据学习,并且由此它可以进行长久性的终身学习,因为它的特性给了它一个适应环境的能力,拥有自适应的构架来进行终身学习。
3,就是现在大部分公司所说自己在做的通用人工智能,在他的研究中认为所谓的通用人工智能是一个长期目标,这个长期还用了非常两个字形容,并需要长期的努力才能去实现。所以通用人工智能在目前是没有一个具体严格的定义的,他给通用人工智能的定义是具有高度且极其强大的自主性。
因为第三阶段是一个无法具体严格去定义的庞大概念,所以周伯文博士着重讲了对于广义性人工智能的七个研究课题,毕竟广义性人工智能是人工智能领域发展的下一个关键阶段。这七个课题分别为:
1,针对这方面的发展,首先要解决的问题是让人工智能的学习从现有的单任务学习变成广泛的终身学习。
2,要去研究相对于单任务学习的多任务学习。
3,抛开如今所依赖的大量被标注的数据学习,需要让人工智能的学习保证一个无间隔且不受“信号”影响的学习状态。
4,要让人工智能摆脱如今依然需要人工构架的现状,逐步实现其自适应的构架。
5,让人工智能可以去运用一些已学习过的去解决一些其它可以解决的问题。
6,让目前的人工智能,尤其是基于深度学习的人工智能在针对某些工作时可以避免黑盒子理论
7,优化人工智能的算法问题。
他在演讲中已经把对于国内人工智能研究的现状与研究方向描述的相当清楚了,而当清楚了研究现状与方向,下一步需要解决的问题,在周志华教授的演讲中也有了清晰的描述。
周志华教授是南京大学计算机系的知名教授,在人工智能业界更是享有盛誉。前段时间南京大学计算机系成立了国内首个人工智能学院,相信周志华教授在其中给予的助力不容小视,因为他认为,目前制约了国内人工智能技术发展的一项重要因素,是相关领域高精尖人才的匮乏。
他在演讲中还就深度学习对深度神经网络进行了阐述,并表明自己的团队由此思考出了一个”深度森林模型“,用于探求深度神经网络之外的模型。
相信此举将对于国内人工智能领域的发展起到至关重要的作用,我们知道,深度神经网络是目前我们对于深度学习的一个解释,几乎可以在两者之间画个等号,现如今的科技发展水平,我们拥有了大数据,还有着超强性能的计算机,以及在长久的发展中我们掌握了更大量更优秀的训练方法,导致我们更能利用深度神经网络以发展人工智能,但深度神经网络依然有着很多缺陷,需要对相应的参数进行耗费大量精力的调整,可这些调整的经验很难共享,就导致了结果的可重复性大大降低,于是需要一个深度神经网络之外的模型来优化这些已经发现的问题。
虽然周志华教授提出了人才匮乏制约了人工智能技术的发展,但是既然已经在高校中拥有了第一个人工智能学院,我相信,我们国家将会在不久的未来有越来越多的人才出现,再加之国家对于人工智能技术的重视,相信也能吸引到大量的技术人员以及企业投身于此。就以此次举办峰会的京东为例吧,不论是之前挖角IBM得到了周伯文,还是现有团队中专门AI研究部门里的何晓东博士,梅涛博士,郭进博士以及黄静博士,在更细化的领域内都是佼佼者,并且在周志华教授的演讲中我们也可以知晓,京东已经和南京大学成立的人工智能学院达成了合作,即是说京东在未来可能会拥有大量的专业人才继续对人工智能研究部门进行填充。
而针对周伯文所提出的问题,他也给出了一个人工智能是一种思维方式的解读,并将探索企业将如何利用AI去适应新的环境、新的社会、与新的规划,以及如何将AI应用于物流、金融、电商及公共事业,又或者是探索更为立体的将AI应用于城市到农村。
在这样的观点之下人工智能将影响到深入社会各界、各阶层和各领域,由此他提出了京东有着一个“从0到1,从1到N,从N到无穷”的技术发展方向。
“0到1”是指他想要做一个人工智能创造者,去做一个从无到有的研究。
“1到N”是指将这个从无到有的研究更新、升级、深化、完善。
“N到无穷”希望能够获得更多的人才,一起完成把人工智能,更完美更完善的应用于各个领域的野望。
这次的人工智能创新峰会其实也是京东Neuhub人工智能平台的揭幕式,这个人工智能平台也是京东希望能够利用它的功能,吸引到更多的人才帮助京东完成它对于人工智能技术的野心。
北京大学信息学院的孙进博士在峰会上提到了这样一句话,说京东不仅进行了人工智能产业的研发,也在进行着人工智能领域的基础研究。
周伯文在演讲中所表达的对于人工智能领域的思考,从大环境下的发展趋势,到具体环节所要解决的问题,都在印证着孙进博士的这句话。余健副司长在发言中说到希望企业作为人工智能发展的主体,但若企业仅仅只去研发具体的人工智能产业,而忽略了对其基本问题的探索,人工智能的发展也许并不能够达到一个足够的高度。
余健副司长在会上的发言代表了国家政策的扶持,孙进博士的这句点评更是代表学术界,表示了对京东在人工智能领域上态度的肯定。
总体而言,人工智能领域的发展在我看来是有着相当的前景的。
世界各国争相发展相关产业的大环境之下,整个产业都得到了国家的重视与支持,这是天时;从峰会上可以看出人工智能学术界思想碰撞的氛围,这是地利;未来可见的,将会出现的大量相关专业人才,这是人和。
天时地利人和都已具备,人工智能的发展壮大也许只是时间的问题了吧。
现在离强人工智能出现,还有多长时间?
人工智能目前水平怎么样?有没有可能在未来几年实现质的突破?目前各大公司投入力度有多大?还有哪些难题须要解决?
目前人工智能依然处在“弱人工智能时代”,从目前人工智能的研发出发点来看,要想把智能体带入到所谓的“强人工智能时代”,目前整个人工智能技术体系将面临一定程度的重构。
当前的人工智能领域研究以“合理地思考”和“合理地行动”这两个出发点来进行人工智能技术的研发,而要想走向强人工智能时代,人工智能的技术研发将不可避免地面对“像人一样思考”和“像人一样行动”这样复杂的局面。
实际上,目前基于神经网络的研究,以及深度学习的相关研究就是在一定程度上模仿人类的思维方式和决策方式,但是人类的思维方式和决策方式目前也并没有一个确切的答案,所以强人工智能的研究其实并没有一个明确的“标准”,所谓强人工智能的概念也并不明确。
从人工智能自身的发展前景和应用前景来看,人工智能产品在大部分情况下并不需要所谓人类的“智慧”,实际上智能体未来无论发展到何种阶段,都不应该来代替人类的思考。
目前科技领域对于人工智能的界定还是比较清晰的,对于目前的智能体可以总结为“智商偏科,情商为零”,智能体目前的应用场景多集中在数据复杂度比较高的领域,这样能够充分发挥智能体在处理数据方面的优势,当然这个过程也需要大数据、云计算和物联网等相关技术的配合。
当前人工智能技术的研发基础是数据、算力和算法,以算法为基础的智能体研发要想走向强人工智能时代对于当前的技术体系有太大的挑战,或者说这几乎是一个很难完成的任务。
我从事互联网行业多年,目前也在带计算机专业的研究生,主要的研究方向集中在大数据和人工智能领域,我会陆续写一些关于互联网技术方面的文章,感兴趣的朋友可以关注我,相信一定会有所收获。
如果有互联网、大数据、人工智能等方面的问题,或者是考研方面的问题,都可以在评论区留言,或者私信我!
我觉得未来五到十年不会有强人工智能。可以盯着顶级会议期刊年年看,也可以盯着大神的个人主页天天看,如果有质的突破,社交网络会传开的。
企业方面,谷歌、Facebook、微软、百度等都蛮有看头的。这个年代,产业在这些领域是走得比较前线的,跟过去有很大的不同。因为产业有数据,数据是研究的核心资产。所以近年来学术大神们纷纷拥抱产业的最大原因是数据和工程能力,而不是钱。产业也是有投入热情的,因为转化率高了。
数据方面的难题:
1. 数据的流通太差,一个个数据孤岛,不流通就难以实现数据的全部价值。
2. 数据虽然大得多了,还是不够,不仅仅是量的不够,维度也不够,而且数据的断层是更大的问题。比如说你用一下PC看淘宝的鞋,再用一下手机买了淘宝的电器,中间这些逻辑就断掉了,可能真实的场景是你在用PC看鞋的时候被老板叫去开一个无聊的会,然后开会的时候玩手机就买了电器。量不够、维度不够、断层等等这些问题都造成了还原真实情况的困难。
理论层面,也没有足够深刻的突破。怎样叫做智能,这个问题还没有理清,还没有一个完整的问题框架,所以更谈不上解决问题。
现在的水平是基于对特定问题(容易划定定义域和值域),设定相应的模型(认知框架),通过统计的方法(认知方式),实现专门的功能。
人类存在的意义是什么?繁殖?作为传递基因信息的一种载体?
机器要获得智能,恐怕首先要有一种底层的目的,这个目的谁来设定?机器伦理又该谁定?机器会成为一个远超人类的物种,我们有能力设计他们的伦理吗?
我们还没有足够的条件去讨论和研究那些问题。日拱一卒,把我们世界里那些可以抠出来的问题一个一个解决掉才是我们的现实。也许哪天他们就醒了,不是我们有意设计的生命,而是一切物理条件成熟了的时候自然诞生的物种。
专家的预言:50年内世界将实现超人工智能?
【一、人工智能的三个阶段】
我们所说的人工智能(AI),是一个广义定义。虽然众说纷纭,大部分专家认为,人工智能发展有三个水准:
>>>>弱人工智能(ANI)
第一类智能水准:能够专注于一个领域,例如能战胜世界围棋冠军的AI,但是也只能下围棋。
>>>>强人工智能(AGI)
第二类智能水准:达到和超过人类水准的人工智能,以Gottfredson博士的定义,有能力“推理、计划、解决问题、抽象思维、理解复杂概念、快速学习、从经验中学习。”
>>>>超人工智能(ASI)
第三类智能水准:超过所有人类智能总和的AI——用Tim Urban的话说,“从比人聪明一点点……到聪明一千万倍。”
那我们现在在哪个阶段呢?我们现在达到了第一个水准——弱人工智能——在很多方面,它已经进入了我们的生活中:
汽车里到处都是ANI,从可以在紧急情况下刹车的电脑,到可以调配汽车加油参数的系统。
谷歌搜索是一个很大的ANI,有很多非常复杂的方法将网页排序,知道给你显示什么。同样的,Facebook Newsfeed也是。
谷歌正在测试中的无人驾驶汽车,有一个很强的ANI系统,让它可以感知世界并做出反应。
电子邮件垃圾邮箱过滤器,知道什么是垃圾邮件、什么不是,并且学会按照你的偏好来过滤邮件。
你的电话就是一个小型ANI工厂……你用地图APP导航,收到定制化的音乐推荐,和Siri聊天等等。
例子不胜枚举。弱人工智能系统不怎么惊悚。失控的ANI会带来危害,但通常是独立事件。虽然ANI不会造成人类的生存性恐慌,相对人畜无害ANI应被视为一个先兆。每一次弱人工智能的创新进步,都在往强人工智能和超人工智能更近一步。
【二、下一步是强人工智能面临的挑战】
没有什么比试图创造像人类一样聪明的计算机,更能让人体会到人类有多聪明了。造一个可以进行两位数计算的计算机很简单,但是造一个看到狗猫能回答这是什么的计算机——特别困难。造一个可以下围棋的计算机?搞定。但造一个计算机能够读6岁小孩的图画书、不只能识别文字、还能理解含义?谷歌正在努力,投入了几百万美元。
一些对我们来说简单的事情,其实非常复杂。之所以对我们简单,是因为我们(和大部分动物)在千百万年的进化中已经优化了。然而,要做大数字运算、或者下围棋,对生物来说还是新游戏,还没有进化出相应的熟练度。所以,计算机在围棋上打败我们不算特别困难。
一个有趣的例子:
图A:你和计算机都能知道,这是一个由两种颜色构成的长方形。第一回合平手。
图B:你能轻松描述出各种模糊和透明的圆柱体、长板和3D转角,但是电脑会输得很惨。电脑会说,这儿有各种二维形状和灰度——图画里实际的内容。人脑可以自己脑补很多,理解深度等图片想表现的东西。
图C:电脑看到二维的黑白灰混合物。要达到人类级别的智能,电脑得理解面部表情之间的微妙区别,愉快、轻松和满足之间的区别。
【三、如何实现强人工智能?】
要达到人类大脑的智能水平,AI需要达到人类大脑的计算容量。而目前,只有很少的大脑区域已经精确测量。Kurzweil说开发了一种估算人脑总体运算速度的方法。根据摩尔定律的估计,计算机硬件进步会以惊人的速度指数发展。比开发硬件更难的是软件。“真相是,没人真正知道如何让机器更加聪明。我们还没教会计算机认识猫狗,判断一个手写的B是不是难看,或者一部电影是不是烂片。”Tim Urban在网站Wait But Why说。但普遍来说,有三种策略最为常见。
>>>>向大脑学习
最简单粗暴的办法就是抄袭大脑,按照大脑结构设计计算机架构。人工神经网络就是一个例子。更极端的方式是模拟整个大脑,不过截止现在,我们只能模拟一毫米厚大小的大脑,大约有302个完整神经元。为了让大家有个概念:大脑有八百六十亿个神经元,由几万亿个神经突触连接。
>>>>让计算机学会进化
即便我们模拟出了大脑也不一定成功,就好像完全模拟鸟儿翅膀运动来建造飞机一样。也许最好还是以建造机器的方式建造机器。被称为“遗传算法”的方法是,让一群电脑一起完成任务,成功的电脑们互相“结合”,不成功的电脑们则被淘汰。
>>>>让计算机自己想去,我们不管了…
最后一种办法最简单,也最惊悚。我们先建造一个计算机,只有两个功能:研究AI,和给自己写代码。我们教计算机成为计算机科学家,自己进化成长。这被认为是我们最有希望的一条路径。
【四、计算机何时拥有与人脑相等能力?】
密歇根湖的容量大约与我们的大脑容量相同(以每秒计算)。根据摩尔定律,计算机处理能力每18个月翻倍。如果以这个速度用水填满密歇根湖,你会很长时间都看不到什么进展,然后忽然间,湖就装满了。
可以非常现实地说,某一个时间点,我们就会实现强人工智能(AGI)——到达人脑级别智能的计算机。这是不是意味着,从这一刻起,计算机会和人类具有同等能力?实际上,并不是——计算机会比人类高效多了。因为计算机是电子的,还会有以下优势:
>>>>速度
“大脑神经元的极限在大约300赫兹,而今天的微处理器……运行速度大约是2千兆赫兹,或者说,一千万倍。“Tim Urban说。
>>>>记忆
遗忘或混淆对于计算机来说是不存在的。计算机在一秒钟内能记住的内容超过人类在十年内能记住的。电脑记忆更加精确,有更大的内存。
>>>>运行
“电脑晶体管比生物神经元更加精准,老化的可能更低(即使老化了,也可以修理或者替换)。人类大脑容易疲倦,而计算机可以不停歇地运转,用最高速不停歇。”Tim Urban说。
>>>>集体能力
在人类中,团队合作非常困难,因为费时间的沟通和复杂的社会层级。团队越大,每个人输出的速度越慢。而计算机不受困于某一个生物体,没有自我,可以同步,可以更新自己的操作系统。
想一想人类级别的AGI能有多大好处,很明显,到时候人们最多只会停个片刻,然后继续向前,奔向超过人类智能的新世界。人类与超人工智能的差异不会是速度,而是“质量——与速度完全不同。人和大猩猩的区别,绝对不是思考速度——而是人类大脑有一些复杂的认知模块,能够让人实现复杂语言表征、长期规划或者抽象推理等活动。让大猩猩的大脑加快几千倍也不会把大猩猩变成人。”
有一个比我们更高质量的物种存在,为了体会这是多大件事,我们来想象一下,AI在智能阶梯上,比我们高两个台阶。Tim Urban说:”它增强的认知能力和我们的差别,会像大猩猩和人类之间的鸿沟一样巨大。大猩猩永远无法明白,一个门把手之中包含了多少魔法……这就是两步台阶的区别。“
“机器越聪明,越能够快速提升自己的智能。“从蚂蚁到一个普通人类也许要7很多年,但是从普通人到爱因斯坦,也许只要40天。“到了爱因斯坦的阶段,机器可以更轻松地进行更大幅度的跨越……当我们听到新闻,说已经有第一台机器达到强人工智能后,也许很快我们就会看见地球上出现一种位于这个位置的智能:
你觉得这个预言有可能吗?来看看现在的人工智能专家们,在两份调查问卷中怎么说。
【五、超人工智能哪天会来?】
Vernor Vinge教授、科学家Ben Goertzel、升阳电脑联合创始人Bill Joy还有,最出名的,发明家和未来学家Ray Kurzweil——他们和许多人一样,都同意机器学习专家Jeremy Howard的观点,他在一场TED演讲中给出了下面这个图表:
(Jeremy Howard在Ted演讲“能学习的计算机,多么美好与骇人”中给出的图表)
一些人相信这很快就会到来——指数级的增长正在发生。其他人,例如微软的联合创始人保罗·艾伦、心理学家Gary Marcus、纽约大学计算机科学家Ernest Davis和科技创业家Mitch Kapor,都相信Kurzweil等思想家都大大低估了这项挑战。而Kurzweil阵营会反驳说,我们都低估了指数增长,他们会将怀疑论者比作与1985年那些看见慢慢发芽的因特网说“这在短期未来内不可能成什么气候”的人。对此怀疑论者会反驳说,人工智能的每一步新技术进步的难度,同样在以指数增长,抵消了科技的发展。
然后还有包括Nick Bostrom在内的第三阵营,相信谁也没法确定未来人工智能的发展路线,认为第一,这绝对可能在不远的未来发生,第二,但这也没有保证,这也可能需要更长的时间。
还有其他人,例如哲学家Hubert Dreyfus,相信以上三个阵营都太天真了,竟然相信未来可能会有超级人工智能——具有超过所有人类智能的人工智能。他认为,这永远都不太可能。
所以,当你看着所有这些观点的时候,你会得出什么结论呢?
【六、强人工智能时间表】
2013年,Vincent C. Muller和Nick Bostrom对几百名人工智能专家进行了以下问卷:“仅为回答问题起见,假设人类科研活动会继续发展,不发生重大负面干扰。你认为到哪一年,会有(10%、50%、90%)可能出现达到人类水平的机器智能(或我们所称的AGI)?”该问卷让专家们写下一个比较乐观的时间预测(有10%可能性我们实现AGI的年份)、一个比较实际的猜测(有50%可能性我们实现AGI的年份)和一个保险的猜测(有50%可能性我们实现AGI的最早年份)。数据最终放在一起的结果如下:
乐观预计年份中位数(10%可能性):2022年;
现实预计年份中位数(50%可能性):2040年;
保险猜测年份中位数(90%可能性):2075年。
所以,参与问卷的人就中位数来说,认为我们可能在25年后实现AGI。90%可能性的回答表示,如果你现在是青少年,中位数的回答以及其他超过一半的AI专家都认为,AGI会在你的有生之年实现。
【七、超人工智能时间表】
Muller和Bostrom还问了这些专家,他们对以下可能性的判断:1)在2年内实现超人工智能(也就是,几乎马上会到来的智能爆炸),2)在30年内实现超人工智能。回答者需在每一个选项现在一个概率。结果如下:
2年内实现AGI-ASI转化:10%可能性;
30年内实现AGI-ASI转化:75%可能性。
位于中位数的回答认为快速的(2年)AGI到ASI的转化只有10%的可能性,而长一些时间(30年内)的转化为75%可能性。我们不知道这个数据库中,大家认为50%的可能性会位于多长的时间长度,但是为了大致估计,我们可以猜测也许大家会说20年。
所以,位于中位数的观点——那些位于AI领域中心的专家们——相信最现实的预测是,超人工智能会在……实现强人工智能的2040年,加上转化到超人工智能的20年,在2060年超人工智能会到来。
当然了,所有以上的数据都是猜测的,而且它们只代表AI专家圈中的中位数观点,但是它们告诉我们一点,很多对这个话题了解深入的人会同意,关于可能改变世界的超人工智能的诞生时间,2060年是一个非常合理的预测时间。也就是,距今45年。
强人工智能是迟早的事情吗?
一定是这样的,没有什么理论上的壁垒可以阻止真正的人工智能的出现,毕竟人脑的体量和复杂度都是人类技术可实现的范围内。
严格意义上讲,强智能早具存在了,因为人就是强智能产物。可能唯一的差别是,人是生出来的强智能,而人工智能是造出来的强智能。落在出身上,两者采用“人工”二字都没有什么不妥。
强人工智能是可以实现的,和什么时光机虫洞这些YY不一样。我们只是用另一个系统复现人类的智能而已,人类智能是实打实的存在的。实现存在的东西和连存在都无法证明的东西完全不一样,存在的东西复现出来只是时间问题。
预言者说,2045年人工智能的摩尔定律将被打破,那么我们的世界又会形成怎样全新的秩序
当我在桌面上挥动胳膊,就可以修改文本信息流的方向。
当我专心阅读的时候,屏幕就会出现提醒,而新闻也会显示出更多的章节。
整个房间所有的物体都如同眼睛一样盯着我的各种行为,主动为我送上我想要的资讯。
在高速公路上,沿途经过的建筑,往往只显示针对我的广告,因为他们认识我的车。
……
美国硅谷互联网科技界的预言帝凯文.凯利,在他的新著作《必然》里用整整一个章节的内容来阐述当人工智能与媒体融合而可能产生的场景,简直如同做梦一般。在凯文.凯利看来,这将是塑造未来30年的趋势必然之一。
人工智能先驱、未来学家雷·科兹威尔也有类似的预言:到了2020年,我们将成功通过逆向工程制造出人脑。2030年末,计算机智能将赶上人类。2045年,人工智能会掌管全球科技发展。至此之后,人工智能的摩尔定律被打破,科技将呈现爆炸式发展。
曾经奇点被看成空间时间的边缘或边界,只有给定了奇点处的边界条件,才能由爱因斯坦方程得到宇宙的演化。就在人工智能奇点来临之前,那些站在浪潮之巅的先锋者,如何审视这场史无前例的“大变局”?我们的世界又会形成怎样全然的新秩序?