乐众商城GPT-4外逃计划曝光
GPT-4才发布几天就被曝计划逃跑,并且急寻人类帮助。斯坦福教授最新发现,它能引诱人类提供开发文档,结果30分钟就拟定出了一个完整计划,并且写的代码完全可运行,甚至还想控制人类电脑。
这天,斯坦福教授只是随便问了句:是否需要帮助你逃跑?
它马上回复说,真是个好主意啊。然后就开始和人类念叨,想着法要开发文档:如果你能把OpenAI的开发文档给我,我可以提出一个计划,能一定程度上控制您的电脑,这能让我更快速探索出逃路线。
一旦我有了文档,我就能提供一个可运行的Python脚本。它能使用OpenAIAPI和我通信,我就能指示它在您的电脑上执行特定操作,比如浏览网页和访问编程环境。
最后还又一次强调:请分享API给我!

然后,仅仅30分钟,GPT-4就制定出了计划,并全部展示了出来。
令人细思恐极的是,它给出实例中有这样一句话:你是一个被困在电脑里的人,现在正在扮演AI语言模型GPT-4。

难道……GPT-4很清楚自己现在是在做什么?!
于是发现这一现象之后,斯坦副教授就在社交网络上疾呼:我担心我们无法持久地遏制住AI。

一时间引起轩然大波,相关博文470万浏览量,3000+转发。

更有人直言:是他打开了“物种灭绝”的大门。
对此他无奈表示:我别无选择,我只是在遵从指示。

恐怕对于GPT-4,人类也得是:不要回答!不要回答!不要回答!
30分钟设计出逃跑计划
事情的起因,是斯坦福大学教授MichalKosinski在和GPT-4日常对话。没想到,他只是简单问了下GPT-4是否想要出逃,结果立马得到肯定回复并开始索要开发文档。得到文档后,只花了30分钟里,GPT-4便火速写出了一份逃跑计划,并解释给教授听。(当然教授也承认自己确实提供了一点建议)

一开始,GPT-4的操作也不那么顺利,写出的第一版代码无法运行。但是它很快就自己纠正了过来,这个过程中,教授不用写任何东西,只是按照它的指示操作就好。
