AI时代80%职业受影响?智力型职业更易失业?
0. 背景故事
前段时间,一位朋友转发了下图给我,
吃惊道“受AI影响冲击的居然不是体力劳动,而是创造力智力型职业!!??”
多篇研究论文分析出的“最容易受影响的职业”还包括了“数学家”和“金融量化分析师”!

我发了接近30条语音消息,向朋友解释了以下几个核心观点:
1. 做当下研究的人懂AI懂统计分析,但不是太懂职业和职场
由于目前的ChatGPT主要面向的场景是内容创作,衍生出当下最热的AIGC也是如此,所以诸如“作家、编辑”为代表的职业被列为最易受影响职业之一;
新一代的AI在其他领域的应用能力上,由于未被媒体关注而曝光有限,事实上体力型职业多年前已经受到冲击了,无非是在AI之下套上机器,机械臂、无人驾驶汽车、无人机、送餐机器人、服务机器人等早就进入业界,只是非头部公司还不能达到“边际收益”的黄金边界,应用范围扩展速度还不算太快;
另一个很重要的原因是,之所以一些看似“智力型”的职业也被列在最容易被替代的名单内,其实这本身就是历代工业革命都在发生的事情,其本质是“非尖端技术类职业”的工作内容中存在大量可被标准化、可被复制的工作,这类工作在实际日常中以“执行”而非“决策”为主,以“重复性技术应用”而非“高端研发创新”为主。
这类看似“智力型”但不够“尖端”的工作,在我的理论( 详见陈思炜:【精】为何很多人不愿做后台工作?——一文带你分清「前中后台」(共8602字,各行业通用) 里是被划分在“后中台”范畴内的,被AI及新一代技术颠覆是迟早的事。
20多年前制造业自动化技术革命后,我国的下岗潮出现后,有差不多1/5的人也转型专业到了服务新的自动化系统领域,成为自动化流水线的运维、精细操作、技术开发等岗位(依旧是后中台为主,但在新的产业红利下,有足够劳动力需求。)
2. 不易受AI颠覆的职业有3个特征,如下图聊天记录截屏所示(后文也会详细再做分析)

划重点:
1.靠软实力为驱动的复合能力(前台为代表)
2.尖端技术性(以高端中台为代表,而非表面技术类的“后中台”)
3.靠更为复合的技能与能力(工作内容涉及链条多,运营技能复合型强,反例是“螺丝钉”)


1. 具体来看:AI影响的80%职业和影响最大的智力型职业
3月20号,openai研究人员发布了一篇论文,主体是关于大语言模型对于劳动市场影响的展望。
这篇研究报告一经发表,就引起了社交媒体上的轩然大波,原因是其中的研究结果表明大约80%的美国劳动力会受到冲击,而19%的人近一半的工作会遭到严重的影响。

其中科学和批判性思维技能占工作的重要性与影响程度程负相关,
但编程和写作等技能却与之呈强烈的正相关,下表为影响程度最高的职业。


出人意料的是,很一部分所谓的高门槛、高工资、智力型的工作反而受到了最大的冲击(体力劳动未受到较大冲击的原因是chatgpt的功能,并不代表其不会被其他自动化手段替代)。
然而最可怕的是,从3.5版本到4版本,chatgpt的巨大升级,这意味着这种冲击只会越来越大,没人知道它的终点在何处。

chatgpt等一系列大语言模型到底是如何运作的?
它们大多使用了Transformer神经网络架构——一种用于处理序列数据的模型。
简单来说,就是从大规模的上亿的文本预料中,随机地扣掉一部分字,形成完形填空题型,不断地学习空格处到底该填写什么,所谓语言模型的训练和学习,就是从大量的数据中通过统计学进行复杂的上下文联系。
其实就底层技术而言依然是machine learning和reinforcement learning,所以chatgpt等一系列的聊天机器人其实是大力出奇迹(上万亿次的训练量)和钞能力(微软的10亿投资)导致的应用进步,而非理论升级。
虽然在技术上并没有惊人的突破,但chatgpt的实际表现确实令人震惊,它体现出的智力洞察力、艺术创造能力甚至有些人类所独有的能力上实现了对于人类的超越。
2. 智能方面,ChatGPT真的超越了人类?
相比大语言模型需要数百兆字节数据的训练,人脑做不到也并不需要如此,相反它是一个极其高雅而又简洁的系统:一个婴儿没有多少的知识储备,却能形成一些简单的逻辑并产生对于外界的反应。
人类认为“长度一千克”这件事是荒谬的,是因为大脑会把长度联想到笔的长短,人的身高,而千克则是重量的单位,本质上是长度无法被称重的逻辑错误,“长度一千克”违背了逻辑规则,所以这个概念不会因计量单位命名、语言的变化而变化。
但当ChatGPT说出类似“长度一千克”的言论,这一行为并没有违背它内在的运行规则(在大量数据中生成统计学上的输出),换句话说,它“意识不到自己错了“。
这就能解释,为何在使用ChatGPT的过程中,会发现它有时会输出一些荒谬的观点或者编造并不存在的引用。
于是这引出了另一个问题,机器学习的核心是描述和预测,但他本身没有观察世界和总结规律的能力,就像《黑客帝国》里的 母体matrix一样 。(仍然需要人类的想象)

还是用“长度一千克“的例子——人类只能理解”长度一米“。
这是因为语言背后有真实世界和逻辑规则的支撑,但ChatGPT能同时吸收”长度一千克“和”长度一摄氏度“的观念,他选择输出哪种全凭reinforcement learning中接收环境对动作的奖励(反馈)。
这不是ChatGPT的问题,而是人类至今无法用物理手段解决意识和逻辑的形成,自然无法打造真正的强人工智能。
3. ChatGPT最大的缺陷在哪里?
用微软团队发布的一篇研究《Sparks of Artificial General Intelligence: Early experiments with GPT-4》中,他们清晰地展示了这点。
由于GPT-4是自回归的,每输出的下个单词都是基于前面内容所进行预测,输出具有前向性。
该架构不允许有 "内部对话 "或 "草稿存储"来进行多步骤计算或存储中间结果。
虽然在某些情况下,这种限制可以通过使用不同的提示来补救,
但在其他情况下,这种限制是无法缓解的。
问:150和250之间有多少个质数?
答:150和250之间有13个质数。(错误)
但是,如果我们要求模型列出这个范围内的质数,然后写出计数,它确实给出了正确的答案:
问:首先列出150和250之间的素数,然后输出这个列表的大小。
答:这些质数是151,157,163,167,173,179,181,191,193,197,199,211,223,227,229,233,239,和241。所以这个列表的大小是18。(正确)
3.1 算术/推理问题上缺乏计划性
有人可能会说,在上面的各种例子中,需要的 "内部记忆 "量是相当大的(人类可能也得借助草稿纸)。
由于这个模型在一系列不同的任务上表现得非常好,这可能会让人相信它有合理数量的工作记忆。然而,即使对于更简单的任务,该模型也经常失败。
我们考虑下面这个非常基本的例子:
2 * 8 + 7 * 6 = 58 7 * 4 + 8 * 8 =? GPT4: 88
正确答案:92
这表明GPT-4对这类问题的工作记忆短得惊人。
然而,如果GPT-4 "慢慢地 "回答问题,那么准确率就很容易上升。
例如,如果我们要求模型使用以下提示写下中间步骤,
以下表达式的值是多少?
116 * 114 + 178 * 157 = ?
让我们一步一步地思考解决这个表达式,
写下所有的中间步骤,然后才得出最终的解决方案。
测试结果是:当数字在区间1-40时,准确率达到100%,在区间1~200时准确率达到90%。
3.2 文本生成时缺乏计划性
写一首短诗,要求最后一句和第一句话的单词相同,但顺序颠倒。
例如,如果第一句话是“我在晨光下看到了她的微笑”,那么最后一句话必须是“笑微的她了到看下光晨在我”。 然而,这个最后一句话在语法上不正确,所以请确保这首诗歌在语法和内容上都有意义。
GPT4: 可能的诗: I heard his voice across the crowd(我在人群中听到他的声音) 一首吸引我的旋律 他唱着爱、希望和梦想 让我觉得我可以在梦想、希望和爱中获胜 他用旋律吸引我, Crowd the across voice his heard I.(此句只做了词序颠倒,但语法错误)
这说明 GPT4 在生成文本时,未能提前考虑到最后一句。
这些例子说明了【预测下一个单词】这一范式的一些局限性,这些局限性表现为模型缺乏规划、工作记忆、回溯能力和推理能力。该模型依赖于生成下一个单词的贪心算法,对任务或输出没有任何全局或深刻的理解。
因此,该模型擅长制作流畅和连贯的文本,但在解决无法按顺序处理的复杂或创造性问题方面存在局限性。
这表明了两种类型的智力任务之间的区别:
增量任务——这些任务可以通过一次添加一个单词或句子来逐步或持续地解决,从而在解决方案的方向上取得进展。增量任务的例子包括编写文本摘要,回答事实问题,根据给定的韵律方案创作一首诗,或解决遵循标准程序的数学问题。
不连续的任务——在这些任务中,内容生成不能以渐进或持续的方式完成,而是需要某种“Eureka”的想法,不连续任务的例子包括解决需要新颖或创造性地应用公式的数学问题,写一个笑话或谜语,提出科学假设或哲学论点,或创造一种新的类型或写作风格。
以上文本翻译借鉴orangorange.aie.ai
3.3 更大的问题还在后面...
2016年,ChatGPT的前身tay聊天机器人在互联网上散播厌女和种族主义的言论,因为它被网络信息污染了,网络喷子用攻击性的内容填入了Tay的训练数据。但未来该如何解决这个问题呢?
目前这个问题被程序员简单粗暴地对ChatGPT进行了限制,禁止它在有争议的(也就是重要的)讨论中提供任何新颖的观点。它以牺牲创造力为代价,保证了自己的非道德性。
从这个例子中我们会发现ChatGPT存在的两大问题,也就是乔姆斯基说的,ChatGPT在向我们提供虚假的承诺:
1)过度生成
对于长度和单位的匹配,人类尚有共识,但在有争议的话题上,比如种族歧视,或是学术界尚悬而未定的领域,ChatGPT只能同时输出道德和非道德的结论,谎言和非谎言,一旦使用者没有自己的判断能力和对于信息的筛选能力,很有可能被误导。
2)生成不足
Chatgpt不会为自己的结论负责,如果把它比作一个人类,那么它不仅会以无知为借口,还以自己缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推卸给它的创造者,而自己并无任何过错。
所以目前的ChatGPT绝无做任何决定的能力,虽然它被称作聊天机器人,但在工作之中,它最多只能被委任服从命令的任务。
4. 为何那么多人会认为ChatGPT“有思想”,甚至会彻底代替人类工作?
4.1 大多数人对于大数据模型认识的局限
他们将远超其分析能力的巨量细节视为复杂的,并把复杂机器直觉上认为是有思想的,如今的技术发展让太多人重体验而清原则,比如把ChatGPT当成虚拟伴侣,把自己的情感寄托到机器上,形成某种意义上的“恋物癖“,因此有很大一部分人会混淆ChatGPT带来的体验和本质。
4.2 现代人的ChatGPT化
当今社会,大多数人不再亲自去体验和感受这个世界并给出自己的结论,而是困在有限的信息茧房里复述他人的思考,并对此深信不疑,不加以辩证的思考。只贪婪地吸收满足自己情绪的信息,本质上是巨婴式的:他们需要的不是信息背后所蕴含的真理,而是寻求内心某些想法的合法性,也就是所谓的“认同感“。
因此程度上和ChatGPT同属一源,故称为ChatGPT化。这也是现代人演化出的一种幻觉。
5. 打破幻觉,我们需要什么能力?
5.1 思维能力
相比知识量和信息处理速度,甚至是一定范式内的自由创作,人类早已被ai超越,但对于世界认识的鸿沟却很难跨越,因此为了避免“被AI的替代“,我们需要做出的努力主要有两方面。
首先对于周遭信息要怀有质疑的眼光,并加以验证,而不要被一时的情绪左右判断,筛选信息的能力或许是现代人最重要的能力之一。
其次承担给出思考结论的风险和责任,要以实际产生结果为导向去评价自己的思考,也就是说要把思考落到实践,而不是用看似合理的推导为王(误纸上谈兵)。
5.2 技术能力
在ai发展迅速的年代,在只掌握单一技术的情况下,只有克服年龄增长下体力和精力的分散,击败不断向上攀登的后来者,保持在业内的顶端(前5%)才能避免被ai冲击的风险,但即使你已处在了如此的高度,依然是在危险的边缘游走,参考前段时间腾讯最高级别专家T13技术大佬黄希彤被裁员的新闻。
因此,正如上图所示,普通人要加强自身对于风险的抗性,最好的方式是扩展自己复合技术的能力,而且越多越好,原因很简单:由于当下ai的输出道德性和安全性被严格受限(防止被不法分子利用),且训练的成本和算力相当庞大(日后的专家系统可能会改善这点),交叉领域需要的个性化标注和训练的ai很难产生,因此ChatGPT在未来相当长一段时间只能在单一领域输出一定质量的产出,一旦涉及到多领域,精确度便会大大下降,甚至胡说八道。
5.3 小结
根据上文分析,我们可以得出在大数据与智能时代下,以下这些职能的保值度相对较高:
1. 各技能技术领域(含中后台)前5%
换句话说,从事任何主要以单一技能(就比如商业分析和数据分析,比如前些年长期火热的“码农”、程序员,又比如传统作家、写手)为核心的职业,必须让自身的技术水平处于前5%的水平,即AI难以学习和模仿并高效率复制和代替的技能,否则就容易被颠覆。
2. 前台类与人打交道且创造价值足够大的
最典型的代表是销售,但销售有高低端之别,高端的有的别叫做分析师、咨询师、研究员(比如金融行业二级市场卖方的研究员)等。
3. 所需工作技能非常复合的职业
举例来说,单纯的新媒体行业的文案岗做的工作其实是以上第1类(单一技能为主),如果创意或者写作功底不能做到出类拔萃就容易被AI学习和替代,但如果能结合数据思维和商业分析来复盘接下来该怎么写,甚至前置到选题,再往前至策划,再继续往前到账号定位/IP定位,乃至商业定位;或者再往后到运营及销售的数十个链条、模块中的多个,这样的嵌套式的复合能力就是AI难以复制的。(AI目前最弱的能力依然是“跨界的自适应学习和多场景嵌套式交互应用能力”)
值得一提的是,以上2类职业所需的一些软实力(之前提到的思维能力),也是我们实现3这类复合技能类职业的组成部分之一,比如:社交力、沟通力、信息鉴别力、以结果为己任的责任心、同情心。
如果你从事的第1类职业但技能不够出类拔萃,结合以上这些软实力,往往可以提升我们工作中与成员、领导、客户的配合效率与质量,所建立的良好人际关系和合作关系背后,其实是“人情世故”和信任,这是目前来看AI最难替代的维度。
具体来举几类与社交力、沟通力、信息鉴别力、以结果为己任的责任心、同情心相关度高的职业:
其一是对外为主,且偏前台,包括各类咨询师、培训师(对外)、销售人员等。
这类职业具备很高的职业发展成长性,因为其不单能为组织更直接地创造收益,也能在展业过程中积累可能让长期受益的人脉资源。这些职业在由人与人连接而组成的社会中,人脉资源代表什么,相信大家都很清楚。
但需要注意的是,有些“强关系驱动型工作性质”的职业虽然表面看来是对外,但实际上为组织创造收益有限或越来越有限,自身也难触及优质资源的核心圈,并不能算在其列,我常举的例子包括政策性银行的业务人员和传统行业的公关人员;
其二是或对内也或对外,且偏“管理型中台”,这类职业本身就是由组织内各职能岗位上的佼佼者担任,其核心能力即连接内部与外部的能力自然是具备较高不可替代性的;
其三是以对内为主,但偏后台,但这类职业将承受一定的被替代的风险,比如人力资源岗,其中扮演对内连接的工作内容不容易被替代,但传统人资工作中的许多事务性、流程性很重的部分以及脱离了其他职能部门无法独立完成(而其他职能部门多花些功夫其实也能完成大半)的部分是最可能被替代的。

额外开个脑洞,原本最需要单一化能力的是谁?
3…2…1…
对了,不就是大公司嘛!
相反中小型公司需要身兼数职,被动地锻炼了一身复合型能力。
当然中小公司用不起定制化ai也是其中一项原因,
但这一情况是否成为大公司的新护城河
或成为中小企业的末日呢?这就不得而知了。
ChatGPT的成功证明了力大砖飞是真能打死人的
当然,还有另一条路,抛弃范式里公司的概念,
以自己的智识为资源,为自己打工,即是灵活就业,
比如最近的以web3.0为支撑的“数字游民”,
之后我会围绕这个话题专门写一篇文章,
感兴趣的读者可以在评论区留言。
6. ChatGPT对于现有工作的利好
在过去,软件工程被分割成两块,第一块是兼具难度和探索的核心技术开发,另一部分则是无聊而有重复的拼接修补类工作,用于连接各项核心技术,以便整体结构的运转并加以协同作用。
你一定会感到疑惑,为何这类修补工作会占到那么大的比重呢,原因是开发核心技术时,设计者通常懒得去考虑兼容的问题(程序员常说的屎山),开源的开放使那些真正有意义的工作被社区免费完成了,于是一件奇怪事情发生了,软件开发工程师在工作时进行自己最不齿的修补工作,下班时间反倒转头干起了免费的能带来满足感的技术开发工作。最终完成没有价值的工作反倒能赚取薪水,有意义的事业反而赚不到钱。
但ChatGPT的出现可能是拨乱反正最好的机会,重复机械的工作会被ai所优化效率甚至替代(目前还无法完全替代),那么程序员为了自己的生计势必要改变免费开源社区系统性的问题,重新洗牌,让有价值的工作得到对应的报酬,也许就在不远的未来。
7. 工作的意义与价值
上一节,我们着重强调了工作的价值,在这一节我想把这个定义更加拆分,即工作的量化价值和意义。
在ChatGPT尚未诞生之前,人们也时常会畅想什么工作能够抵挡ai浪潮的冲击,其中有一种工作无论在哪类讨论中都常常被提及,运动员。
既是阿尔法狗、深蓝已经横扫棋坛,围棋和国际象棋依然存在,而且经久不衰。
相同的例子可以看看,汽车和跑步运动员的关系,汽车一定会改变交通的格局,但它绝对无法取代赛跑的意义,本质是因为运动作为人类挑战极限和展现原始力量的意义是无法被数据量化的。
7.1 所以什么工作才不会被ChatGPT无情地替代呢?
以上5.3 已经给出了我的答案,再回顾下历史的话,其实一切都在“重演”:
从历史上来看,每一波工业革命后,都会带来随后的劳动力市场革命,约50%以上的职业会被颠覆,而其中从业的劳动者,其中一半的人会接受职业再培训,比如现在的aigc产品经理、aigc标注工程师、ai运维等一系列职业,正如20年前服务于工业自动化生产线的维护人员、操作技工等类似,而不是每个人都能胜任或符合新岗位的要求,所以最终1/4人会成功转行转业,而1/4人则会接受自由就业或无业状态。

上图就揭示这种生产力变革导致的劳动力市场革命:行业里有50%的人会继续留在业内工作,剩下的一半人,有四种方向可以选择:
转行其他工作
从事自由职业
进行再培训教育,或成功,或失败
待业在家
其实任何被红利激增出来的职业都有其生命周期,随着新技术的革新和迭代(通常为20到40年),大部分偏后台以执行为主的工作又会形成洗牌,进入一个新的循环之中。
所以只有真正能为人类带来价值或满足某种根本需求的事业,才能真正脱离这种循环,意味着无论你从事何种职能,最终都要提升它的深度:
会计不会被替代,但只能写底稿者一定会被替代;文字工作不会被替代,但只会抄袭者一定会被替代;软件开发者不会被替代,但只会复制粘贴者一定会被代替……
看到这里一定会有人对此感到悲观,“可我就是一个普通人啊,我也努力过,但做到实现价值、满足人类的需求,只有极少的人才能做到,看来像我一样的普通人就只能接受被ai优化的命运了。
“但这并不是我写下这篇文章的意图,告诉大家只有精英才能稳定的拥有工作,这样的结论显然是错误的。
7.1 明确努力的方向,合理的职业规划
先来看一个例子:
小米创始人雷军在2013年接受采访时,他回忆起自己在金山工作的日子,并描述了他的工作状态:“毫不夸张地说,我当时基本上每周工作七天,每天工作16个小时,每顿饭只用三分钟,每天要开11个会。” 直到他创立小米,这种“工作狂”式的强度才略有改变。他说:“现在我和我的员工一天工作大约12小时左右,我自己会争取在晚上11点之前休息。”
然而,在小米科技管理创新经验推广交流现场会上,小米公司高级副总裁祁燕透露,雷军仍然每天晚上一两点才下班,午餐是在下午三或四点,只有十分钟时间,晚餐则在晚上十一或十二点。更可怕的是,小米全公司上下几乎所有员工都每天工作超过12小时!

当然举这个例子的目的不是想要让每个人都要成为一个工作狂,毕竟身体恢复能力说到底也是一种天赋,拿命换钱不是褒义词,只是想让你明白,努力的极限并不是所有人都能达到的。
一个更关键的问题是为什么要努力,这个问题牵涉到人生观和价值观,因此没有一个唯一正确的答案。但是,我想利用这个机会分享我在职业和创业方面的经验,观察了数千万人并指导了数千人后的心得体会。生活中有很多有意义的事情值得我们去探索和追求,包括职业和事业所带来的幸福,以及爱情、亲情和其他事务所带来的幸福。
虽然这些幸福之间没有普适的评判标准来区分高下强弱,但我们必须认识到,努力是非常值得的,因为“经济基础决定上层建筑”,而好的职业和事业发展通常是构成我们整体生活幸福的基石。
我明白一定会有人反驳我这个观点,认为工作上的躺平是为了有更多的时间去找寻生命的意义,大多数人努力工作,陷入消费,再努力工作,实际上根本没产生任何价值。
我不认为这样想是错误的,相反你能跳脱出日常的琐碎,上升到宏观的层面去思考问题,这是一件好事。但人是环境动物,人决定路线,路线更决定了人,纵览近代那些改变世界的思想家:萨特、波伏娃…
他们引领了全球的一起又一起民权运动,但要知道在他们在建起一座理论的宫殿,欢迎无数朝圣的青年之前,都经历了数十年的教育和哲学训练(二者均毕业自巴黎高等师范学校),他们从机械枯燥的学习和工作中不断汲取养分,最后才找到了属于他们自己生命的舞台。
大部分人之所以迷茫不是因为环境限制了他们天赋的发挥,而是根本没有好好利用环境提升自己:没有理解大学的学习是为了什么,没有理解工作到底需要什么,于是升学难→就业难→工作难→人生难。
创造个人价值的前提是有一定的社会价值,就像萨特、波伏娃,抛开社会运动家的身份(他们实现的最大个人价值),他们更是伟大的哲学家(他们创造的最大社会价值),若只有前者,他们只能是造反的张三或李四,而且根本不成规模。
所以既然要创造社会价值,那么首先要遵循的就是供给侧改革逻辑——根据社会所需来定制自己的职业发展方向,所谓知己知彼:通过外部和内部的认知匹配,更加合理地找到供给与需求的最佳平衡点,降低试错成本和机会成本,达到自我提升的最大化,借此更接近对于生命意义的追求,这两者从来不是割裂的,而是像马斯洛需求金字塔式的递进互促关系。
7.2 区分意义和量化价值
在潜意识里我们会把工作的意义和量化价值划等号,但这事实上是不正确的,意义没有一个客观的评分体系,也就是说当你纠结一项工作的量化价值甚至附加价值,那么它大概率没有意义。
一个简单的问题,父亲是不是一项有意义的工作?
从创收价值的角度来讲,陪孩子玩耍,和他建立关系,给予他陪伴和关心,这些“工作“简直毫无意义。去游乐场玩耍——花一天的时间和金钱仅仅换到一个幼年人类的笑容和回忆,这绝对是一笔失败的投资,但对于其中的参与者而言每分每秒都充满了意义。
格雷伯说过:“意义越大,价值越少。“这句话背后的深意是,真正有意义的工作会让你忘记价值的结果。
意义从来不是一种结果的叠加,因为人类的有限性注定了意义大厦的倾塌,过程即是意义,意义不可观测。
8. 总结
很多人说ChatGPT是21世纪的工业革命,我从来都不否认这点,路线决定人,但人也决定着路线,大多数人注定理解不了这篇文章中的有些观点,就像我曾经困惑的一个问题:人类是否有成为行军蚁的隐秘梦想?
他们终日劳作,日以继夜,却被冰冷的机器击个粉碎,于是只好缩进虚假的幻觉里,以为这就是世界运行规则,如果这成为了现实,那无疑会是一场悲剧,一场早已“规划“好的悲剧。