⚠️警惕!你的NovelAI模型,极有可能被恶意攻击! 藏在AI绘画泄露模...
2022-10-14 22:03 作者:Advanced_Killer | 我要投稿

由于我最近也在学习软件工程和网络安全相关知识,我就来总结并补充一些。
我刚开始知道Novel AI模型漏洞时,我的理解是开后门,我不太相信。不过现在看了视频后,我想的确有那个可能性。
python中pickle模块可以将一个表达式序列化,进而隐藏恶意代码,视频中的通过os模块执行恶意代码只是一个很轻的示例。
如果由我来编写恶意代码,我会先在自己电脑上建立一个主控节点,然后创建metasploit控制端,并将被控端上传到一个下载节点。接着,我会在恶意代码里添加requests.get用于下载被控端,然后使用os.system进行被控端的运行。这个时候,后门就成功被打开了。然后我们再在主控节点上进行操作,电脑就沦为了肉机。这应该非常恐怖。
总的来说,我们很多人都经常使用破解软件,破解软件也很有可能有病毒。只要这个软件不开源,它就有可能有安全隐患,这是肯定的。只要你有一点警觉意识,这种事情还是能防患于未然的。