别焦虑,ChatGPT还抢不动心理咨询师的饭碗
哈喽~宝子们大家好!
最近ChatGpt火爆全网,很多当代人都在为手中的饭碗焦虑不止,前几天还在抱怨自己的职场保质期追不上退休年龄延后的速度,如今又开始忧虑于会被AI取代。
那么ChatGpt能够取代心理咨询师的工作吗?学姐带着大家一起分析一下。

最近,大家都被一个叫“ChatGPT”的人工智能刷屏了。即使你过去从不关心科技领域,也难逃相关讨论的包围,而且一个比一个吓人:
“机器人即将取代这10个工种,快看看你的行业在不在其中”
“未来底层岗位将消失,几百亿人流离失所!”

从2022年12月以来,ChatGPT以智能的聊天方式,吸引了各行各业的注意。
那么,ChatGPT能取代心理咨询吗?你能够想象未来的心理咨询中,坐在你对面的不是一位咨询师,而是ChatGPT吗?
一、ChatGPT是什么?
“ChatGPT到底是个啥东西?”
ChatGPT,美国OpenAI 研发的聊天机器人程序 ,于2022年11月30日发布。
尽管这几天才真正爆火,但这个聊天机器人其实早在三个月刚诞生时,就已经吸引了不少科技圈爱好者的注意。当时形象还不是什么“抢饭碗大魔头”,而是一个问什么就答什么的硅基小可爱。
因为能够记住之前的交流内容并联系上下文语境,跟它的对话更像是跟人在聊天。所以一开始大家喜欢提很多刁钻的问题。
ChatGPT也很争气,不会像市面上的“人工智障”那样,只能重复机械敷衍的回答。而是会给出相当像模像样的建议——比如下面这种。

“没有正当理由的情况下,试图取代你的老板是不道德的。”
另一种特别流行的玩法,是让ChatGPT写论文、写简历、离职信等各种文案,甚至是小说、诗歌。

据《纽约时报》2023年1月中旬报道,北密歇根大学的哲学教授 Antony Aumann 在为自己任教的一门课程评分时,惊喜地读到了一篇“全班最好的论文”。在这篇论文中,作者以简洁的段落、恰当的举例和严谨的论据,论证了相关问题。然而,在追问之下,学生承认论文用 ChatGPT 写的,他对此大为震惊。
更为新奇的是,据美联社 1月 25 日报道,美国众议员杰克·奥金克洛斯在发表演讲讨论创建美国-以色列人工智能(AI)中心的法案时,其宣读的两段讲稿是由 ChatGPT 生成的。
有人用拿谷歌的编程面试题去问ChatGPT,结果发现它的准确率达到了L3工程师的水平,而这个岗位的年薪水平差不多在18万美元。

一项调查显示,截止2023年1月,美国89%的大学生都是用ChatGPT做作业。
2023年1月,巴黎政治大学(Sciences Po)宣布,该校已向所有学生和教师发送电子邮件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止学术欺诈和剽窃。
ChatGPT的应用场景还包括:用来开发聊天机器人,也可以编写和调试计算机程序,还可以进行文学、媒体相关领域的创作,包括创作音乐、电视剧、童话故事、诗歌和歌词等。在某些测试情境下,ChatGPT在教育、考试、回答测试问题方面的表现甚至优于普通人类测试者。
可见,名校大学生、高薪程序员,都是普通打工人摸不到的高度,结果被AI轻松拿下。

难免会让大家产生危机感——
“没想到聪明绝对的人工智能老爷们,这么快就来抢咱普通人的饭碗了……吗?”

二、ChatGPT的特点
那么,ChatGPT都有哪些特点呢?
1. ChatGPT 的语言理解基本都正确,甚至会根据上下文的不同背景使用不同的措辞,输出的句子在语法上没有什么问题,而且还具备一些日常的理解能力。可以发现,相比于之前的搜索引擎,ChatGPT更加智能。

2. ChatGPT 善于在简短描述上自由发挥,比如写个工作总结时能够进行合理的细化和扩展。
3. ChatGPT能围绕一个问题进行一定程度地互动:

ChatGPT的缺点:
1、无法分清楚虚构和真实,也就是说给出的答案并非正确的,也就代表了它并非是100%稳妥可靠的,还是需要大量的测试;
2、ChatGPT的信息更新在了2021年,因此无法连接搜索引擎更新最新最实时的信息来反馈给用户;
3、没有思考能力;
4、难以应对复杂的对话场景,目前为止ChatGPT的训练数据量也比较少,应对一些比较复杂的对话场景的时候就会宕机;
5、ChatGPT的训练时间也比较长,需要一定的大量计算资源,因此无法实时使用它。
三、心理咨询的特点
1.帮助性
缓解来访者心理压力;改变来访者错误的认知观念;指导来访者掌握自我调控方法;协助来访者重新建立社会适应性行为;促使来访者更好地认识自我;鼓励来访者挖掘和利用潜在的积极因素。
2.互动性
心理咨询的来访者和咨询者是一种双向交流彼此影响的互动关系。需要双方建立自然和谐信任等良性的互动关系,使来访者毫无顾虑地坦陈心迹和盘托出求助问题。如果访咨双方互存疑虑和戒心,则势必难以达到心理咨询的目标。
3.心理性
心理咨询仅局限于心理问题。心理咨询问题虽然大多由生活事件直接引起,但如果求助和帮助的重点在如何解决具体的生活事件上,则必然背离心理咨询的初衷。
4.渐进性
无论是发展问题还是适应困难,试图通过一次心理咨询就彻底解决是不现实的。这不仅因为这些发展问题或适应困难是接受了长期心理社会因素影响的结果,而且心理社会因素本身又极为复杂。
虽然来访者求助的心理非常迫切,希望一下子就能解决问题,但咨询者则不能寄希望于一劳永逸,而应该一步一步地启发,循序渐进地对来访者提出要求,以使其在较低层次成功的基础上逐渐获取更大的成功,从而最终解决所期望解决的问题或困难。
四、咨询师的工作不能被ChatGPT代替
咨询师的工作不能被人工智能代替,主要有以下几个方面:
第一,心理咨询的效果十分依赖于工作同盟关系,咨询师充分尊重来访者,使来访者获得积极体验并作出移情式的改进,最终促成对良性转变。
其中,最关键的中间环节“移情式的改进”,就难以在机器人身上实现,移情是指来访者将过去对其他人的情感投射到了咨询师身上的过程,移情的主体是人,对象同样也是和我们一样“活生生的、有独特经验”的人,面对冷冰冰的机器人,难以产生移情,咨询的效果就要大打折扣。
第二,心理咨询的效果也依赖于咨询师个人的技术,一个有经验的咨询师可以透过观察来访者的表情动作,结合其言语内容做出及时反馈,引导咨询方向,而ChatGPT的交流模式是分析一段文字给出答案,既做不到实时观察,也不能给予实时反馈,其目标不清晰,难做到在整体引导咨询方向。
第三,一个优秀的心理咨询师能对来访者展开高级准确共情,而来访者因此相信咨询师与自己有共同的心路历程,才会认为咨询师的能对自己感同身受,才会因此获得被理解的积极体验。
而面对一个机器人的“共情”,来访者首先会质疑:一个没有真实人生经历的机器会真的与我感同身受吗?
机器人的经验来自于开放数据,也许这次的“共情”基于某个小说的人物心理,下一次“共情”基于某篇文摘描述的故事,下下次的“共情”基于某个网络论坛上类似问题的答案,这种在交流中产生的多重角色扮演是无法给予来访者真诚体验的。

第四,心理咨询的过程有动态的目标,有多种可选的咨询技术,每种技术都适用于不同的群体和阶段,这些动态变化都需要对来访者的表现作出准确评估,而评估过程会涉及到行为、语言、家庭、社会、文化多个方面,GhatGPT仅通过文字来对来访者做评估,其准确性和全面性差。
第五,GhatGPT保证不了咨询的时长,首先就可能导致来访者不珍惜咨询的时间,不够投入。
更重要的是,其咨询缺乏连续性和整体性,正常的心理咨询每一次都会比前一次更为深入,更接近来访者的症结。
想象一下,每次当人们打开ChatGPT时,机器人都会重新认识我们一次,你还会将心理困扰交给它来疏导吗?
第六,人工智能借用网络数据,就不可避免的会产生数据安全问题,心理咨询中会涉及大量来访者个人隐私,当面对一个随时可能把“信息”公开到“数据库”中的机器人时,难以做到保密,来访者也难以做到坦诚。
学姐碎碎念
总的来说,大家不用担心,人工智能是不会替代心理咨询师的工作!大家可以放心的选择心理咨询作为一个终身的职业。
但我们不能因此否认Chatgpt在心理咨询工作中的价值。人工智能可以辅助咨询师对来访者进行标准心理测量的,也可以对一些固定流程的技术(如放松训练)进行深度学习并代替部分的行为干预指导工作,还可以辅助咨询师完成咨询记录等。