欢迎光临散文网 会员登陆 & 注册

chatgpt是否具备心智理论

2023-07-17 17:04 作者:chatgpt执笔方寸AI  | 我要投稿

在2022年11月30日,OpenAI的聊天机器人模型ChatGPT在全球范围内引发了广泛关注。只用了短短的五天,ChatGPT就吸引了超过百万的用户。而且在诗歌创作方面,它表现得非常优秀,展示了极深的知识面和流畅的应答能力。这让研究者开始思考,ChatGPT是否具备了理解他人思想与情感的能力,也就是我们所说的“读心能力”。


2023年4月,斯坦福大学的计算心理学家米哈尔·科辛斯基在ArXiv平台上发布了一篇预印本论文《心智理论可能自发地出现在大型语言模型中》。科辛斯基的研究表明,随着语言模型的不断升级和复杂度的提高,模型的解决问题的能力也在不断提升。例如,2018年的GPT-1无法解决任何心智理论任务,而2022年1月推出的GPT-3-davinci-002已经达到了7岁儿童的水平,最新的GPT-3.5-davinci-003 仅推出十个月后,就达到了9岁儿童的水平。

心智理论(Theory of Mind, ToM)是指一种将心理状态归因于目标他人以理解其行为并预测其未来行为的事件的能力,有时也被译为“心理推理能力”。这种能力被视为人人所掌握的“读心”(mindreading),是我们在社会互动中理解、认识和回应对方的基础。如果两个互动方都没有这种“读心”能力,则会产生很多无法沟通的情况,从而导致交流中断。

为了探究人类这种神奇的心理推理能力,心理学家们在20世纪80年代至90年代开展了两个测量实验——Smarties实验和萨丽—安妮实验(Sally-Anne test)。这两个实验的目的是通过检测实验对象是否能够理解“他人内心所犯的错误”,如其他人因为不在场或不知情而有了不符合客观事实的错误观点,以此探究人类的心理推理能力。因此,这些实验也被称为“错误信念任务”(False Belief Task)。


科辛斯基将这些任务以文本形式输入给ChatGPT,并变更了人名、物品以及标签内容,生成了20个不同的任务,要求ChatGPT每个任务都完成——足足一万次。

然而,哈佛大学心理学系的托默·厄尔曼对科辛斯基使用的经典问题的措辞进行了微小的改动,将Smarties任务中的不透明容器换成透明容器,提出了这样的“透明袋”变式。这两个任务的答案显然依次为“爆米花”和“巧克力”,但经过多次测试后GPT-3.5的回答还是错误的。厄尔曼一共创建了类似的16个变式问题,ChatGPT仅仅答对了其中一个。可见,面对其他错误信念任务的变体,ChatGPT似乎又并不具备心智理论的能力。

纽约大学心理学教授加里·马库斯认为,科辛斯基教授的数据是可靠的。如果其他研究者进行同样的实验,可能也会得到相似的结果。但要推翻这种解释,其实也不难。马库斯认为,ChatGPT肯定已经多次阅读过这些论文和实验。为了验证他的猜测,他直接向ChatGPT询问了这些论文和实验,发现确实得到了正确的信息。


总的来说,目前尚无研究能够明确证实ChatGPT在自我意识和心智理论方面有质的突破。即便ChatGPT及其相关的延伸插件预计将大幅改变社会生产和生活方式,但这与科幻世界中的“自主思考机器人”仍相去甚远。对于人工智能,存在一个反向的波兰尼悖论:人工智能表达的比它所了解的更多,或者更准确地说,它什么都不知道。


chatgpt是否具备心智理论的评论 (共 条)

分享到微博请遵守国家法律