欢迎光临散文网 会员登陆 & 注册

⚠️警惕!你的NovelAI模型,极有可能被恶意攻击! 藏在AI绘画泄露模...

2022-10-14 22:03 作者:Advanced_Killer  | 我要投稿

由于我最近也在学习软件工程和网络安全相关知识,我就来总结并补充一些。

我刚开始知道Novel AI模型漏洞时,我的理解是开后门,我不太相信。不过现在看了视频后,我想的确有那个可能性。

python中pickle模块可以将一个表达式序列化,进而隐藏恶意代码,视频中的通过os模块执行恶意代码只是一个很轻的示例。

如果由我来编写恶意代码,我会先在自己电脑上建立一个主控节点,然后创建metasploit控制端,并将被控端上传到一个下载节点。接着,我会在恶意代码里添加requests.get用于下载被控端,然后使用os.system进行被控端的运行。这个时候,后门就成功被打开了。然后我们再在主控节点上进行操作,电脑就沦为了肉机。这应该非常恐怖。

总的来说,我们很多人都经常使用破解软件,破解软件也很有可能有病毒。只要这个软件不开源,它就有可能有安全隐患,这是肯定的。只要你有一点警觉意识,这种事情还是能防患于未然的。

⚠️警惕!你的NovelAI模型,极有可能被恶意攻击! 藏在AI绘画泄露模...的评论 (共 条)

分享到微博请遵守国家法律