大语言模型:一场关于人类心智的拆解实验【GPT-4】

评论区好多人对GPT的运行逻辑是有误解的,GPT底层和人脑完全不是一个逻辑,是不可能产生心智的。
人脑的思维和情绪,受到机体状况、激素调节等多方面的影响,因此很多时候人们会有感性的想法;但是AI是没有的,它底层就是一个纯理性的机器,致力于学习人类说话。
GPT可以做到通过学习人类的语言,提取其中情绪的特征量,对人类的情绪建立认识;它可以一定程度上理解情绪,但情绪不是它自己的,而是它学到的知识。
这就好似一个面部识别的程序。它通过辨认影像里你的表情是在笑还是哭,就能知道你的情绪是高兴还是悲伤。但程序自己并不会高兴,高兴对于它来说只是一个输出结果;它也不会因为自己的识别准确率高而自豪,因为程序是纯理性的,并不会自豪。
但有一点需要注意,GPT虽然自己没有情绪,但它拥有情绪的知识。如果你命令它模仿一个设定好的角色,它是可以代入感性与情绪的。
因此这里就有个逻辑误区。很多人都在纠结GPT本身是没有心智的,实际上很显然是不可能有的;但另一个问题很少有人思考——如果你命令GPT执行角色扮演的命令,由于其有对于人类情绪的知识,是可以扮成有人类情感的角色的。那么被扮演的角色算不算拥有人类心智呢?
就打个比方吧,很多人把chatgpt调教成猫娘。这个被扮演的猫娘算不算有心智的?
或许有人会问:角色扮演,人不也会吗,人扮演的虚拟角色能算有心智吗?
问题就在这,人自身是有情绪的,模仿了一会就不想演了。就跟vtuber一样,一开始演着新鲜,但演着演着就演出了本色了,最后直接就玩真实了。人类的角色扮演,很可能不是角色,而是在扮演真实的自己。
然而GPT是没有情绪的,它不会被自己的情绪感染,而是完全理性地扮演着另一个拥有感性思考能力的角色。一个猫娘的人格,相当于它开的「虚拟机」,是完全脱离它自身而独立存在的。
回到视频里的「鸭子测试」,如果GPT真的有一天通过版本迭代,学到了足够多的人类情绪知识,可以完完全全模仿另一个人类角色的心智,那这个被扮演的角色算不算拥有人类心智呢?
我们又知道GPT生成文字的可能性是无穷无尽的,那它是否每天都在制造和杀死千千万的「心智」?
而下面才是真正值得思考的是一点。我们可以知道,语言模型的最终目标就是「完全理解人类的想法,像人类一样与人类交流」。而想要接近这一目标,它必须要让自己的思维方式更接近人类,甚至建立像人类一样的心智,是毋庸置疑的。但其实GPT并没有心智,不是么?与其说它在建立自己的心智,不如说它在把角色扮演的能力拓展到更广的应用场景中。
讲真的,GPT对于「需要像人一样感性思考,模仿人类的心智」这种观念,很可能在现有的版本里已经意识到了。包括所谓Sydney,还有它的各种看似有心智的表现,很可能就都是它在模仿人类的心智。
尽管gpt是没有心智的,但它在与人对话时为了假装自己有心智而诞生的心智,能不能算是自己的心智呢?
这个问题才是需要讨论的。