为什么AI如今聪明到可以写出高考作文,可以帮你选学校
最近高考后,AI又迎来一波刷屏,继“AI通过程序员面试”、“AI通过律师考试”、“AI通过注册会计师考试”之后,“AI写高考作文”成为了新的热点。
以前玩各种游戏都有人机对战,但这些AI都呆呆的。为什么chatgpt横空出世之后,AI仿佛在一夜之间变得非常聪明,聪明到可以参加各种考试,可以更快速筛选出你要的东西,比以往任何时候都更像真正的人类?
今天我们聊一聊AI变聪明的原因,以及如何合理的利用这份聪明。

以前的AI的发展是基于“逻辑”、“因果”、“规律”。
以棋牌AI为例,当对手走出一步棋之后,AI要作出回应。基于棋理,常规的下法有若干种,于是AI对这些可能的下法做评估,选一个最佳下法。这就是逻辑。

但逻辑只是对现象的一种归纳总结,并不是客观真理,任何逻辑都有可能被新的现象证伪,这意味着逻辑本身是不断向前发展的。
就比如在古代,人们普遍认为“地心说”是对的,然而在宇宙观测技术发展之后,哥白尼和伽利略等科学家提出了“日心说”,新的逻辑推翻旧的逻辑。
假如AI基于“逻辑”,那么它所有的回应都被局限在这个逻辑框架之内,恐怕永远都“不够聪明”,而且还需要人类不断的去给它补充新的“逻辑”。这注定了基于“逻辑”的AI走不远。
为什么现在的AI足够聪明
现在的AI是基于“模仿”,这是AI变得更聪明、更像人类的根源。
什么是基于“模仿”的学习方式?回想一下小孩学说话,第一声“妈妈”是怎么叫出来的?是父母不断的发这个音,然后小孩努力“模仿”这个发音。小孩不懂任何语法,但这并不妨碍他用“模仿”的方式学会说话。
以AI写高考作文为例,你以为AI能写高考作文是因为它懂得语法,知道“主语”、”谓语“、“宾语”?不不不,它不需要懂任何语法,因为在它的学习素材中有大量的高考作文,所以它可以“模仿”出一篇很像那么回事的作文。就像小孩学说话那样。
AI基于“模仿”的学习方式,和人类的成长方式几乎一样,这就是AI变聪明、更像人类的原因。区别只在于,人类的学习素材是父母、学校、社会,而AI的学习素材可以是人类有史以来的一切信息,所以AI学的更快。

模仿的局限性与应对方法
这种基于“模仿”的学习方式的局限性是显而易见的。缺少了逻辑的约束,AI会生成很多不符合客观事实的内容,比如杜撰不存在的文献名称、杜撰不存在的判决案例,以及各种“一本正经的胡说八道”。

(最近很火的新闻,律师用chatgpt写文件,结果引援案例都是chatgpt凭空杜撰的。千万别用chatgpt之类的通用型AI去做需要专业知识的工作……)
目前最常见的应对方法是由人类对生成内容的对错好坏进行反馈,然后AI基于大量反馈结果,在后续生成内容时,尽量朝着反馈为“好”的方向去模仿,从而避免生成虚假内容。
是不是又和父母帮助小孩建立对错观的方式对上了?

(几乎所有的AI产品都有点赞和点踩的功能,用户的反馈也是AI训练的一部分。)
用对待人类的方式对待AI,所以AI变得更像人类。这不仅是AI技术思路上的转变,而是一个关乎社会伦理的更深层次话题,在此不做过多展开。

答案是——有针对性的选取学习素材,训练各个专业领域的AI。
通用型AI虽然能做到很多有意思的事情,但离成为生产力工具还有很大差距。通过训练专业型AI来解放生产力,这是未来的发展趋势。
alpha go的开发团队,在因为围棋AI打出名气之后,停止了围棋AI开发,转向了医疗领域AI的研究。chatgpt plus版本支持各种专业领域插件之后,能够成为订票助手、招聘助手,财务管理助手。chatgpt plus接入微软bing搜索引擎,将搜索结果作为回答依据,避免杜撰内容。这些都是AI逐渐朝专业领域发展的例子。
可能出现城市规划专业AI吗?
完全有可能。
这是小编最近在尝试的事情——在一个AI训练平台上面,给空的AI投放城市规划学习素材,看看它学的怎么样。
比如上传一份东莞市的城市规划管理技术规定作为学习素材。

然后问它——东莞市的R类用地包含哪些子类?

同样的问题去问chatgpt,chatgpt给出的回答有不少错误内容。

这已经能很明显的体现通用型AI和专业型AI的差别,chatgpt虽然学的内容很多,但遇到城市规划这种对专业性要求很高的领域还是无能为力,而专业型AI只需要学一份文档,就可以将这份文档中的内容有条理的表达出来。
回到标题,AI如今聪明到能写高考作文,其实不算什么太意外的事情,更何况AI写的作文都是车轱辘话,真参加高考,这样的作文能拿45分就不错了(满分60),噱头要大于实际意义。
但专业型AI绝非噱头,训练得当的专业型AI未来完全有可能辅助规划师编写规划说明书和规划文本。
后续将为大家带来城市规划专业AI的训练方法和训练成果,欢迎关注公号CityBox城市沙盒。
作者:阿城 公众号:CityBox城市沙盒